Un equipo de expertos en tecnología lanzó una nueva iniciativa llamada «Haciendo la IA de manera diferente», que exige un enfoque centrado en el ser humano para el desarrollo futuro.
Durante años, las personas han tratado los resultados de la inteligencia artificial (IA) como si fueran el resultado de un gigantesco problema matemático. Pero los investigadores del Instituto Alan Turing, la Universidad de Edimburgo, AHRC (Reino Unido) y la Fundación Lloyd’s Register, responsables de este proyecto, afirman que esa es la forma incorrecta de ver esta tecnología
Lo que la IA está creando son básicamente artefactos culturales. Se parecen más a una novela o una pintura que a una hoja de cálculo. El problema es que la IA está creando esta «cultura» sin comprender nada de ella. Es como alguien que ha memorizado un diccionario pero no tiene ni idea de cómo mantener una conversación real, sostienen los investigadores.
Por eso la IA a menudo falla cuando «los matices y el contexto son lo más importante», afirmó el profesor Drew Hemment, responsable del área de Tecnologías Interpretativas para la Sostenibilidad en el Instituto Alan Turing. El sistema simplemente carece de la «profundidad interpretativa» necesaria para comprender lo que realmente dice.
La mayor parte de la IA del mundo se basa en un puñado de diseños similares. El informe denomina a esto el «problema de la homogeneización» y el desarrollo futuro de la IA debe superarlo.
Es como si todos los pasteleros del mundo usaran exactamente la misma receta. Obtendrían un montón de pasteles idénticos y, francamente, aburridos. Con la IA, esto significa que los mismos puntos ciegos, los mismos sesgos y las mismas limitaciones se copian y pegan en miles de herramientas que usamos a diario.
El plan detrás de «Haciendo la IA de manera diferente»
El equipo tiene un plan para construir un nuevo tipo de IA, al que llaman IA Interpretativa. Se trata de diseñar sistemas desde el principio para que funcionen como lo hacen las personas: con ambigüedad, múltiples puntos de vista y una profunda comprensión del contexto.
La visión es crear tecnologías interpretativas que ofrezcan múltiples perspectivas válidas en lugar de una única respuesta rígida. También implica explorar arquitecturas de IA alternativas para romper con los moldes de los diseños actuales.
Y lo más importante: el futuro no se trata de que la IA nos reemplace, sino de crear conjuntos de humanos e IA que trabajen juntos, combinando la creatividad humana con la capacidad de procesamiento de la IA para resolver enormes desafíos.
Esto tiene el potencial de impactar nuestras vidas de maneras muy reales. En el ámbito sanitario, por ejemplo, la experiencia con un médico es una historia, no solo una lista de síntomas. Una IA interpretativa podría ayudar a capturar esa historia completa, mejorando la atención médica y la confianza en el sistema.
En el ámbito de la acción climática, podría ayudar a cerrar la brecha entre los datos climáticos globales y las realidades culturales y políticas únicas de una comunidad local, creando soluciones que realmente funcionen sobre el terreno.
Para socios como la Fundación Lloyd’s Register, todo se reduce a una sola cosa: la seguridad.
“Como organización benéfica global dedicada a la seguridad, nuestra prioridad es garantizar que los futuros sistemas de IA, independientemente de su forma, se implementen de forma segura y fiable”, afirma su Director de Tecnologías, Jan Przydatek.
No se trata solo de desarrollar mejor tecnología. La idea es crear una IA que pueda ayudar a resolver los mayores desafíos y, de paso, potenciar lo mejor del ser humano con su enfoque.
Información de AI News / Redacción Noti AI
No dejes de leer: La IA: estímulo para unos, obstáculo para otros en la innovación de la cadena de suministro para 2025
Sigue nuestras redes sociales y se parte de nuestra comunidad