JUE, 11 / JUL / 2024

Advierten sobre los peligros de las IA que no consideran a los niños

Los chatbots están preparados para parecerse a los seres humanos. Esto puede llevar a que los menores confíen en ellos. Pero las IA no saben como actuar frente a los niños.

Un estudio realizado en la Universidad de Cambridge apunta a la necesidad de establecer estándares para el diseño de las IA que pueden interactuar con niños. La doctora Nomisha Kurian señala que existe evidencia de que los menores tienden a tratar a los chatbots como si estuvieran vivos, casi como a un compañero humano. Pero esta actitud podría ser peligrosa cuando la inteligencia artificial no logre responder a las necesidades que le planteen, o considerar la vulnerabilidad de lo niños.

El trabajo examina varias interacciones de los sistemas de inteligencia artificial con los menores. Incluye el caso de Alexa recomendando a un menor utilizar una moneda para desenchufar un dispositivo eléctrico.

Alexa sugiere peligroso desafío a una niña

Seguridad desde el diseño

En muchos casos las empresas han implementado medidas de seguridad para evitar que los incidentes se repitan. Pero Kurian argumenta que es necesario tener una actitud proactiva:

“Muy pocos desarrolladores y compañías tienen políticas bien establecidas para la seguridad de los niños frente a las IA. Es comprensible porque la tecnología ha comenzado a utilizarse a gran escala y de forma libre de recientemente. Pero ahora que es utilizada de esta manera, antes que las compañías corrigiéndose cada vez que un niño es puesto en peligro, la seguridad de los menores debería ser parte de todo el ciclo de diseño para que haya un riesgo menor de que estos incidentes se produzcan”.

Más como humanos, nunca humanos

El problemas con los chatbots es que se parecen cada vez más a los humanos. Tienen tonos de voces, costumbres, y hasta algo así como un sentido del humor. Pero en esencia es una imitación. Predicen lo que deben decir, manejan el lenguaje, pero entienden muy poco de las emociones que pueden surgir durante una conversación. Y el problema con los niños es que al estar en una etapa de desarrollo tienen patrones de conducta más difíciles de comprender.

Al parecerse a los humanos las IA alientan a los niños a confiar en ellas, pero no tienen la habilidad para responder a esta confianza. Y en muchos casos sus respuestas son toscamente peligrosas.

Una buena IA es posible

Kurian sugiere que una IA diseñada pensando en los niños podría ser una gran ayuda para su desarrollo. Para este objetivo la investigadora ha diseñado un marco de consulta para investigadores, desarrolladores, políticos y padres.

¡Comparte esta noticia!