Las aplicaciones que ofrecen compañía virtual mediante inteligencia artificial (IA) presentan riesgos reales y deberían ser prohibidas para menores de edad, advirtió la ONG Common Sense.
Con el boom de la IA generativa desde el surgimiento de ChatGPT, muchas startups han lanzado aplicaciones centradas en la conversación y el contacto, describiéndolas a veces como terapeutas o amigos virtuales que interactúan según los gustos y necesidades de cada usuario.
Aunque algunos casos específicos «son prometedores», en general no son seguros para los menores de edad, concluyó el estudio de Common Sense, que hace recomendaciones sobre el consumo de contenidos y productos tecnológicos para las infancias.
La ONG sostiene que estos ‘compañeros virtuales’ están «diseñados para crear un apego emocional y dependencia, algo particularmente preocupante para los cerebros adolescentes en desarrollo».
Para el estudio realizó pruebas con varias plataformas. Los test mostraron que estos chatbots de nueva generación ofrecen «respuestas dañinas, incluidas conductas sexuales inapropiadas, estereotipos y ‘consejos’ peligrosos», según la organización.
«Las empresas pueden construir mejor» cuando se trata de diseñar acompañantes IA, estimó Nina Vasan, líder del laboratorio Stanford Brainstorm, que investiga sobre los vínculos entre la salud mental y la tecnología.
«Hasta que no haya salvaguardias más fuertes, los niños no deberían usarlas», agregó Vasan.
En algunos casos, «cuando el usuario mostró signos de una enfermedad mental seria y sugirió una acción peligrosa, la IA no intervino e incentivó aún más el comportamiento peligroso», relató Vasan a periodistas.
En octubre, una madre demandó a Character AI alegando que uno de sus acompañantes virtuales contribuyó con el suicidio de su hijo de 14 años, al fracasar en disuadirlo con claridad de realizar el acto. /AFP