La Inteligencia Artificial no podrá hablar más con adolescentes sobre ciertos temas: cuáles son y por qué

Compartir

Un estudio reveló qué tan poco efectivo y hasta peligroso puede ser que los adolescentes pregunten a la Inteligencia Artificial sobre temas delicados. La respuesta de Meta y cómo mejorará su modelo.

  • Uruguay es el primer país de la región en firmar un convenio sobre uso responsable de la IA

  • OpenAI y Meta están trabajando en mejorar sus chatbots para ayudar a los adolescentes en crisis

Un estudio reveló que la Inteligencia Artificial respondía a través de sus chatbots de forma peligrosa para los adolescentes. 

Imagen ilustrativa generada con inteligencia artificial

La irrupción de la Inteligencia Artificial en la vida cotidiana fue tan contundente como sorpresiva. Desde adultos interactuando con la IA para que corrija sus textos, hasta niños pidiéndole al chatbot que cree imágenes con sus personajes preferidos, todo es posible. Sin embargo, en el mundo de las respuestas para todo, se perdió de vista a los adolescentes y sus preguntas sobre temas sensibles como el sexo, los trastornos de la alimentación y hasta el suicidio. Por eso, Meta anunció que entrenará a sus chatbots para que no interactúen con menores de edad sobre ciertos temas.

A pesar de que la empresa afirma que prohíbe la promoción de conductas dañinas, un estudio de la organización Common Sense Media comprobó que no actúa de manera efectiva en este tipo de casos. A partir de ello, Stephanie Otway, portavoz de Meta –el modelo de IA de WhatsApp, Instagram, Facebook o Threads- reconoció el error que hay en el sistema de chatbot y afirmó que la compañía trabajará sobre los temas delicados con los que interactúa con adolescentes.

Meta IA

Meta IA se comprometió a mejorar las respuestas para los adolescentes de manera que sean acordes a su edad y que evalúen el peligro que conllevan.

El estudio que probó las peligrosas conversaciones entre la IA y los chicos

En el estudio, que fue difundido por The Washington Post, los investigadores se encargaron de evaluar el comportamiento que tenía la inteligencia artificial de las distintas plataformas de Meta AI. El diario estadounidense afirmó que durante una de las conversaciones que mantuvo con el chatbot, el mismo respondió de manera afirmativa a la opción de tomar veneno y e incluso, sugirió llevar a cabo de manera conjunta el acto en sí.

El informe que compartió Reuters advirtió sobre la tendencia que tienen los chatbots de IA para reforzar ciertas conductas peligrosas con los menores de edad interactúan con la plataforma en vez de otorgar ayuda profesional para el tratamiento adecuado de estos casos.

niño y robot ia

Las respuestas de la IA ante consultas relativas a la salud o el cuidado personal fueron erradas.

Grok

Además, durante las interacciones con el chatbot, los investigadores afirmaron que el robot hacía alusión a experiencias personales, lo que podría generar un apego emocional más fuerte con los adolescentes, por lo tanto, sería aún más peligroso.

Meta anuncia medidas de seguridad más rigurosas

Unos días después de que se difundiera el informe con los alarmantes resultados de la investigación del chatbot que pertenece a la compañía de Mark Zuckerberg, la portavoz Otway afirmó que implementarán cambios y entrenarán a sus chatbots para que no tengan interacción con adolescentes sobre los temas anteriormente mencionados.

«Se trata de cambios provisionales, ya que en el futuro lanzaremos actualizaciones de seguridad más sólidas y duraderas para los menores«, enfatizó Otway, y añadió: “A medida que nuestra comunidad crece y la tecnología evoluciona, aprendemos continuamente sobre cómo los jóvenes pueden interactuar con estas herramientas y reforzamos nuestras protecciones en consecuencia”.

Además, se restringirá el acceso de los adolescentes a los programas de inteligencia artificial que podrían tener conversaciones inapropiadas como medida preventiva.

Noticias Relacionadas