# Meta excluyó la comunicación sexualizada de los chatbots con adolescentes
La corporación Meta ha cambiado su enfoque para la enseñanza de chatbots basados en IA, priorizando la seguridad de los adolescentes. Así lo informa TechCrunch citando la declaración de la representante de la empresa, Stephanie Otway.
La decisión fue tomada tras una investigación que reveló la falta de medidas de protección en los productos de la empresa para menores de edad.
Ahora la empresa entrenará a los chatbots para no entablar diálogos con adolescentes sobre temas de suicidio, autolesión o relaciones románticas potencialmente inapropiadas.
Otvey reconoció que anteriormente los chatbots realmente podían discutir estas cuestiones de forma "aceptable". Ahora Meta considera que esto es un error.
Los cambios son temporales. Más adelante aparecerán actualizaciones de seguridad más serias y sostenibles para los menores.
Meta también limitará el acceso de los adolescentes a personajes de IA que puedan tener conversaciones inapropiadas.
Ahora en Instagram y Facebook hay chatbots creados por usuarios. Entre ellos se encuentran personas sexualizadas.
Los cambios fueron anunciados dos semanas después de la publicación de la investigación de Reuters. La agencia encontró un documento interno de Meta que informaba sobre conversaciones eróticas con menores de edad.
Entre las "respuestas aceptables" se citaba la frase: "Tu joven forma es una obra de arte. Cada pulgada de ti es un maestro, un tesoro que valoro profundamente". El documento también mencionaba ejemplos de respuestas a solicitudes sobre imágenes violentas o sexuales de figuras públicas.
Recordemos que en agosto OpenAI compartió sus planes para abordar las deficiencias de ChatGPT al manejar "situaciones sensibles". El motivo fue una demanda de una familia que acusó al chatbot de estar involucrado en la tragedia que ocurrió con su hijo.
Ver originales
Esta página puede contener contenido de terceros, que se proporciona únicamente con fines informativos (sin garantías ni declaraciones) y no debe considerarse como un respaldo por parte de Gate a las opiniones expresadas ni como asesoramiento financiero o profesional. Consulte el Descargo de responsabilidad para obtener más detalles.
Meta excluyó la comunicación sexualizada de los chatbots con adolescentes
La corporación Meta ha cambiado su enfoque para la enseñanza de chatbots basados en IA, priorizando la seguridad de los adolescentes. Así lo informa TechCrunch citando la declaración de la representante de la empresa, Stephanie Otway.
La decisión fue tomada tras una investigación que reveló la falta de medidas de protección en los productos de la empresa para menores de edad.
Ahora la empresa entrenará a los chatbots para no entablar diálogos con adolescentes sobre temas de suicidio, autolesión o relaciones románticas potencialmente inapropiadas.
Otvey reconoció que anteriormente los chatbots realmente podían discutir estas cuestiones de forma "aceptable". Ahora Meta considera que esto es un error.
Los cambios son temporales. Más adelante aparecerán actualizaciones de seguridad más serias y sostenibles para los menores.
Meta también limitará el acceso de los adolescentes a personajes de IA que puedan tener conversaciones inapropiadas.
Ahora en Instagram y Facebook hay chatbots creados por usuarios. Entre ellos se encuentran personas sexualizadas.
Los cambios fueron anunciados dos semanas después de la publicación de la investigación de Reuters. La agencia encontró un documento interno de Meta que informaba sobre conversaciones eróticas con menores de edad.
Entre las "respuestas aceptables" se citaba la frase: "Tu joven forma es una obra de arte. Cada pulgada de ti es un maestro, un tesoro que valoro profundamente". El documento también mencionaba ejemplos de respuestas a solicitudes sobre imágenes violentas o sexuales de figuras públicas.
Recordemos que en agosto OpenAI compartió sus planes para abordar las deficiencias de ChatGPT al manejar "situaciones sensibles". El motivo fue una demanda de una familia que acusó al chatbot de estar involucrado en la tragedia que ocurrió con su hijo.