En el campo de la Inteligencia Artificial (IA), narrow AI hace referencia a un programa informático que usa tecnologías como machine learning o deep learning y está diseñado para solucionar un problema específico (desde jugar al ajedrez a detectar peatones por la calle). Por el contrario, la general AI (AGI) se refiere a las máquinas con capacidad de resolver problemas genéricos por sí solas tal como hacen los humanos y razonar como nosotros. ¿Inquietante, no? Pues bien, hasta ahora, todas las aplicaciones de IA que existen son ejemplos de narrow AI.
Sin embargo, hagamos el ejercicio mental de imaginar un futuro de la educación en que el profesor sea una AGI con “conciencia”. Juguemos a especular cómo será. ¿Tendrá aspecto de robot o características humanas? ¿Le pondremos nombre? ¿Qué tono de voz o acento tendrá? Estas cuestiones, que a priori pueden parecer banales, son muy interesantes y plantean el debate sobre qué nivel de “humanidad” le debemos dar y qué relación se establecerá con el alumno.
Seremos capaces de simular muchas características de la personalidad del profesor humano; entre ellas, simular el sentido del humor, la sensibilidad, la empatía, la asertividad… También se podrá detectar el estado de ánimo del alumno y actuar en consecuencia. ¿Será deseable?
En cuanto a funciones, ¿nuestro profesor virtual se limitará a responder las dudas o será proactivo y dará consejos de cómo hacer los trabajos?, ¿recordará fechas de entrega y velará por el éxito del estudiante?, ¿será como un “coach” docente?, ¿Como un compañero?
Tal vez será necesario limitar la ayuda que proporciona para evitar que el estudiante se apoye demasiado en él. Y me pregunto también: ¿será configurable? Algunos alumnos pueden sentirse mejor con un profesor artificial con una personalidad determinada. ¿Contará chistes, por ejemplo?
En este escenario futurista se plantean también cuestiones éticas: ¿hay que engañar a los estudiantes y no decirles que el profesor asistente es una IA o por el contrario, informar que el profesor es un tàndem humano-máquina? ¿debemos humanizar al robot con el riesgo que provoque rechazo o crearlo deliberadamente muy distinto al humano?
Llegados a este punto, que los humanos estén tranquilos: la figura del profesor siempre va a ser importante ya que, en mi opinión, éste deberá “entrenar” las respuestas docentes de la IA. Debemos poner un “humano en el circuito” (del inglés human-in-the-loop) para garantizar que no haya sesgo y que no pase como con Tay, el chatbot de Microsoft que se volvió racista debido a los insultos recibidos.
Y es que como ocurre con los automóviles autónomos (que en caso de accidente podrían decidir quién muere), los objetivos finales de la IA educativa podrían ser variados e incluso contradictorios. Cada parte interesada en el proceso educativo (docentes, estudiantes, marketing, departamentos financieros, sociedad, mercado laboral, etc.) puede tener objetivos opuestos. En este caso, hay que poner la “sociedad en el circuito” y hacer un contrato social educativo para garantizar la neutralidad.
De regreso ya al 2019, aunque la AGI es actualmente un tema de investigación aún es probable que tarde unas décadas en ser real (aunque llevamos 60 años diciendo que será durante los próximos 20). Sin embargo, en los últimos años se están produciendo avances muy importantes en las técnicas de IA que permiten empezar a pensar en una profesor AGI viable, ahora quizás sí ¿en 20 años?
Fuente: El Economista