Recientemente, la Universidad de Cambridge (Reino Unido) definió, en un paper, seis principios para garantizar el uso ético de la inteligencia artificial (IA) en la enseñanza del inglés.
Los autores del estudio afirman que el documento surge tras la creciente preocupación por el papel de la IA en el aprendizaje y la evaluación del idioma inglés.
Una encuesta reciente de YouGov reveló que “un mayor riesgo de hacer trampa” y “no evaluar las competencias lingüísticas adecuadas” (39 % en cada caso) son las principales preocupaciones de la sociedad británica cuando se les consultó sobre el uso de la IA en las pruebas de competencia lingüística en inglés.
Reflejo de la rápida evolución del panorama de la inteligencia artificial y de los debates en directo sobre la eficacia de los métodos de evaluación del inglés, el documento insta a los proveedores de pruebas a recopilar evidencia sólida que demuestre que las puntuaciones de la IA cumplen los mismos estándares que los examinadores humanos altamente cualificados y experimentados.
También exige mayor transparencia y explicabilidad, garantizando que todas las partes sean conscientes del papel que desempeña la IA en la evaluación.
Asimismo, el paper insta a las partes interesadas a considerar la enorme cantidad de energía que se consume al desarrollar y utilizar productos de IA.
Los seis principios de Cambridge para el uso ético de la IA en la enseñanza del inglés
La IA debe cumplir sistemáticamente con los estándares de los examinadores humanos
Los sistemas de IA deben evaluar con precisión las habilidades lingüísticas adecuadas y ofrecer resultados confiables. Los proveedores de pruebas deben recopilar evidencia sólida para demostrar que las puntuaciones de la IA cumplen con los mismos estándares que los examinadores humanos altamente cualificados y experimentados.
La imparcialidad no es opcional, sino fundamental
Los sistemas de aprendizaje y evaluación de idiomas basados en IA deben entrenarse con datos inclusivos para garantizar su imparcialidad y ausencia de sesgos. Para ello, es fundamental el uso de diversos conjuntos de datos en el entrenamiento de los modelos de IA y la monitorización continua de sesgos.
La privacidad de los datos y el consentimiento son innegociables
Todas las partes deben estar claramente informadas sobre qué datos se recopilan, cómo se almacenan y para qué se utilizan. En segundo plano, esto implica implementar un cifrado robusto, protocolos de almacenamiento seguro y medidas de protección contra la piratería informática.
La transparencia y la explicabilidad son clave
Los estudiantes necesitan saber cuándo y cómo se utiliza la IA para determinar sus resultados.
Los sistemas de IA deben desarrollarse e implementarse de forma transparente, con una supervisión y una gobernanza sólidas. Asimismo, los proveedores deben poder articular claramente el papel que desempeña la IA, así como los marcos establecidos para garantizar la integridad y la precisión de las pruebas.
El aprendizaje de idiomas debe seguir siendo una tarea humana
Si bien la IA puede mejorar el aprendizaje y la evaluación, no puede reemplazar la experiencia exclusivamente humana de adquirir y usar el idioma.
La evaluación basada en IA debe mantener siempre a un humano involucrado, garantizando la responsabilidad por parte de los proveedores de pruebas y permitiendo que intervenga cuando se necesite supervisión, claridad o una corrección para el control de calidad.
La sostenibilidad es una cuestión ética
La IA no es solo una herramienta digital, sino también física, con costos ambientales reales. Los sistemas de IA procesan grandes cantidades de datos, lo que conlleva enormes necesidades energéticas. El impacto ambiental del uso de la IA debe tenerse en cuenta al considerar cómo se debe desarrollar o utilizar.
Información de FE News / Redacción Noti AI
No dejes de leer: La voz de Whitney Houston vuelve a los escenarios gracias a la IA