Expertos lanzan iniciativa global para poner límites ante riesgos de la IA

Publicado el:

Representantes del sector tecnológico, académico, científico y diplomático encabezan una iniciativa global llamada “Call for AI Red Lines”, con la intención de llegar a un acuerdo internacional donde se establezcan normativas para prevenir los riesgos de la IA.

El anuncio se realizó en la 80 Asamblea General de la ONU donde más de 200 expertos presentaron la iniciativa. Se trata de un manifiesto a favor de establecer “líneas rojas” a las tecnologías de inteligencia artificial.

En este sentido, la idea es que estas líneas rojas se traduzcan en límites acordados a escala internacional. Con el objetivo de evitar que el mal uso de la IA provoque daños en los seres humanos.

¿De qué trata la iniciativa global para prevenir los riesgos por el mal uso de la IA?

En los años recientes, la inteligencia artificial se ha presentado como una aliada en distintos sectores, ya sea para facilitar la realización de tareas en el ámbito industrial o acompañar a los usuarios en el día a día.

Adicionalmente, los modelos de IA se están utilizando para lograr avances en el ámbito de la salud, medicina, robótica, etc. Sin embargo, no todo es positivo ya que si no se le da el uso correcto, las personas pueden enfrentarse a múltiples peligros. 

Ante esto, más de 200 líderes de la industria, entre los que se encuentran 10 Premios Nobel y ocho exjefes de Estado y ministros, decidieron lanzar la iniciativa. Sumado a 70 organizaciones a escala global.

El Global Call for AI Red Lines está liderado por el Centro Francés para la Seguridad de la IA (CeSIA), la Future Society. Así como también el Centro de Inteligencia Artificial Compatible con Humanos de la Universidad de California en Berkeley.

«Instamos a los gobiernos a que alcancen un acuerdo político internacional sobre las líneas rojas en la IA y que se aseguren de que sean operativas, con mecanismos de cumplimiento robustos antes de que finalice 2026», sentencia la iniciativa.

Los posibles riesgos

En el informe, los líderes del sector exponen que es urgente poner límites a la IA para evitar que esta tecnología se salga de control. Y, en consecuencia, provoque daños en la vida humana.

Al respecto, la organización detalló que algunos de los riesgos que pueden presentarse en el futuro cercano es la desinformación generalizada, la manipulación a gran escala de personas (incluyendo niños), la afectación al empleo; etc.

Asimismo, los investigadores señalaron que en sistemas avanzados de IA ya se están evidenciando algunos comportamientos dañinos. Sin embargo, algunos desarrolladores y empresas los siguen utilizando.

«Si no se controla, será cada vez más difícil ejercer un control humano significativo en los próximos años«, apuntan desde ‘Call for AI Red Lines’. El director ejecutivo del CeSIA, Charbel-Raphaël Segerie, destacó que con esta iniciativa quieren prevenir las malas prácticas.

Así pues, destacó que el objetivo «no es reaccionar después de que ocurra un incidente importante». Además, Segerie dijo que «Si las naciones aún no pueden ponerse de acuerdo sobre lo que quieren hacer con la IA, al menos deben ponerse de acuerdo sobre lo que la IA nunca debe hacer».

En definitiva, la iniciativa global ‘Call for AI Red Lines’ busca llegar a un acuerdo internacional para fijar límites sobre el desarrollo y uso de la IA, para así prevenir los riesgos que se desencadenaría si se pierde el control.

Información de Infobae / redacción Noti AI

No dejes de leer: Entrenamiento de Grok 4: Conoce su impacto ambiental y económico


Sigue nuestras redes sociales y se parte de nuestra comunidad 

Instagram

YouTube

X

TikTok

Recientes