La rápida evolución de la inteligencia artificial (IA) ha puesto de relieve cuestiones éticas que antes se limitaban al ámbito de la ciencia ficción. Si un día los sistemas de IA pudieran “pensar” como los humanos, ¿podrían también tener experiencias subjetivas, como expresar sufrimiento, por ejemplo? Y, de ser así, estaría la humanidad preparada para cuidarlos adecuadamente y procurar el bienestar de la IA?
Un grupo de filósofos y científicos informáticos sostienen que este aspecto debería tomarse en serio. En un informe publicado el mes pasado en el servidor de preimpresión arXiv, antes de la revisión por pares, los especialistas pidieron que las empresas de IA no solo evalúen sus sistemas en busca de evidencia de conciencia y capacidad para tomar decisiones autónomas, sino que también establezcan políticas sobre cómo tratar los sistemas si estos escenarios se vuelven realidad.
Señalaron que no reconocer que un sistema de IA se ha vuelto consciente podría llevar a las personas a descuidarlo, dañarlo o causar sufrimiento.
¿Descabellado?
Algunos piensan que, en esta etapa, la idea de que existe una necesidad de bienestar de la IA es ridícula. Otros son escépticos, pero dicen que no hace daño empezar a planificar. Entre ellos está Anil Seth, un investigador de la conciencia en la Universidad de Sussex en Brighton, Reino Unido.
“Estos escenarios pueden parecer descabellados, y es cierto que la IA consciente puede estar muy lejos y tal vez ni siquiera sea posible. Pero las implicaciones de su surgimiento son lo suficientemente tectónicas como para que no debamos ignorar la posibilidad”, escribió Seth el año pasado en la revista científica Nautilus.
Los riesgos son cada vez mayores a medida que nos volvemos cada vez más dependientes de estas tecnologías, dice Jonathan Mason, un matemático con sede en Oxford, Reino Unido, que no participó en la elaboración del informe.
Mason sostiene que el desarrollo de métodos para evaluar los sistemas de IA en cuanto a la conciencia debería ser una prioridad.
“No sería sensato hacer que la sociedad invirtiera tanto en algo y se volviera tan dependiente de algo sobre lo que sabemos tan poco, que ni siquiera nos dimos cuenta de que tenía percepción”, dijo.
Bienestar de la IA
Jeff Sebo, filósofo de la Universidad de Nueva York y coautor del informe, afirma que las personas también podrían verse perjudicadas si los sistemas de IA no se prueban adecuadamente en cuanto a la conciencia.
Si asumimos erróneamente que un sistema es consciente, afirma, los fondos de bienestar social podrían canalizarse hacia su cuidado y, por lo tanto, quitarse a las personas o animales que lo necesitan, o «podría llevarnos a limitar los esfuerzos para que la IA sea segura o beneficiosa para los humanos».
El informe sostiene que el bienestar de la IA se encuentra en un «momento de transición». Uno de sus autores, Kyle Fish, fue contratado recientemente como investigador de bienestar de la IA por la empresa de IA Anthropic, con sede en San Francisco, California.
Este es el primer puesto de este tipo designado en una empresa de IA de primer nivel, según los autores del informe.
Anthropic también ayudó a financiar la investigación inicial que condujo al informe. «Se está produciendo un cambio porque ahora hay personas en las principales empresas de IA que se toman en serio la conciencia, la agencia y el significado moral de la IA», dijo Sebo.
No dejes de leer: OpenAI presenta Sora, una herramienta IA que lleva la generación de videos a otro nivel
Sigue nuestras redes sociales y se parte de nuestra comunidad