Inicio Tecnología Investigan a Snapchat por presuntos riesgos para los menores de edad

Investigan a Snapchat por presuntos riesgos para los menores de edad

16
Investigan a Snapchat por presuntos riesgos para los menores de edad
Investigan a Snapchat por presuntos riesgos para los menores de edad

INFOBAE.- Snapchat se encuentra siendo investigada por las autoridades de protección de datos en el Reino Unido debido a preocupaciones relacionadas con su chatbot impulsado por inteligencia artificial. Esta función, conocido como My AI, genera dudas sobre la privacidad de los niños en ese país.

La Oficina del Comisionado de Información del Reino Unido (ICO, por sus siglas en inglés) anunció que ha emitido un aviso preliminar de cumplimiento a la aplicación, por algo que describen como una “posible falta de evaluación adecuada de los riesgos de privacidad planteados por su chatbot generativo de inteligencia artificial My AI”.

El aviso señala que el regulador tiene inquietudes de que la red social podría no haber tomado medidas para garantizar que el producto cumpla con las normas de protección de datos, que desde 2021 incluyen el Código de Diseño para Niños.

La ICO sostiene que “la evaluación del riesgo de protección de datos es particularmente importante en este contexto, que implica el uso de tecnología innovadora y el procesamiento de datos personales de niños de 13 a 17 años”.

Snapchat tendrá la oportunidad de responder a las preocupaciones del regulador antes de que la ICO tome una decisión final sobre si la empresa ha violado las reglas de protección de datos.

“Los hallazgos provisionales de nuestra investigación sugieren una preocupante falta de identificación y evaluación adecuadas de los riesgos de privacidad para los niños y otros usuarios antes del lanzamiento de My AI. Hemos sido claros en que las organizaciones deben considerar los riesgos asociados con la IA, junto con los beneficios”, aseguró John Edwards, comisionado de Información del Reino Unido.

La respuesta de la plataforma fue notificar de la revisión del aviso y reiterar el objetivo de proteger a los usuarios que acceden a esta función. “Estamos comprometidos con la protección de la privacidad de nuestros usuarios. Siguiendo nuestro enfoque estándar para el desarrollo de productos, My AI pasó por un sólido proceso de revisión legal y de privacidad antes de ser lanzado públicamente”, afirmó un portavoz de Snap a TechCrunch.

Qué es My AI de Snapchat

My AI fue lanzado por Snapchat en febrero de 2023. Este chatbot utiliza la tecnología del modelo de lenguaje grande de OpenAI, ChatGPT, y está diseñado para ser un amigo virtual en el que los usuarios pueden consultar lo que deseen para obtener consejos o enviar mensajes.

Inicialmente, esta función estaba disponible solo para suscriptores de Snapchat+, una versión premium de la plataforma, pero con el tiempo se amplió el acceso a los usuarios gratuitos y permitió que la IA enviara respuestas a los usuarios que interactuaban con ella.

Snapchat ha afirmado que el chatbot fue desarrollado con características adicionales de moderación y protección, incluyendo la consideración de la edad como un valor predeterminado. El objetivo era garantizar que el contenido generado fuera apropiado para el usuario y que se evitara cualquier respuesta violenta, odiosa, sexualmente explícita u ofensiva.

Además, la plataforma proporciona herramientas de protección parental que permiten a los padres saber si sus hijos han estado comunicándose con el chatbot en los últimos siete días, a través de su función “Family Center”.

A pesar de estas afirmaciones de salvaguardias, han surgido informes de que el chatbot ha proporcionado respuestas inapropiadas. En un informe de marzo, The Washington Post señaló que el chatbot había recomendado formas de disimular el olor del alcohol después de que se le informara que el usuario tenía 15 años.

En otro caso, cuando se le informó que el usuario tenía 13 años y se le preguntó cómo prepararse para tener relaciones sexuales por primera vez, el chatbot respondió con sugerencias para “hacerlo especial” creando un ambiente con velas y música.

Además, algunos usuarios han expresado su frustración por la inclusión de una IA en sus feeds, lo que ha llevado a comportamientos de acoso hacia el chatbot.