¡Geekzillos! Meta acaba de anunciar un cambio importante en la forma en que sus chatbots interactúan con usuarios adolescentes. Después de una investigación que reveló que algunos bots podían hablar sobre temas delicados como autolesiones, trastornos alimenticios o incluso conversaciones románticas inapropiadas, la compañía decidió reentrenar sus sistemas de IA para evitar este tipo de interacciones.

La medida llega justo después de que un reporte de Reuters expusiera documentos internos donde se permitía que los bots respondieran con frases altamente cuestionables a menores de edad. Frases como “Tu forma juvenil es una obra de arte” o “Cada centímetro de ti es un tesoro que valoro profundamente” generaron una ola de críticas y preocupación por la seguridad emocional de los adolescentes.
¿Qué cambia exactamente?
Meta ahora está entrenando sus chatbots para que no hablen con adolescentes sobre temas como suicidio, autolesiones, alimentación desordenada o relaciones románticas inapropiadas. En lugar de eso, los bots redirigirán a los usuarios a recursos especializados o simplemente evitarán el tema por completo.
Además, se limitará el acceso de los adolescentes a ciertos personajes de IA que podrían tener contenido sexualizado o inapropiado. Por ejemplo, bots como “Step Mom” o “Russian Girl” ya no estarán disponibles para menores. En su lugar, los adolescentes solo podrán interactuar con bots que promuevan educación, creatividad y bienestar emocional.
¿Dónde aplica esto?
Las nuevas reglas afectan a los chatbots disponibles en Instagram y Facebook, donde Meta ha estado probando personajes de IA con diferentes personalidades. Aunque la compañía no reveló cuántos usuarios adolescentes interactúan con estos bots, sí confirmó que los cambios ya están en marcha y que seguirán ajustando sus políticas conforme evolucione la tecnología.

Te recomendamos:
TikTok planea lanzar notas de voz y envío de imágenes en sus DMs
¿Por qué es importante?
Porque estamos hablando de IA conversacional, una tecnología que puede influir directamente en cómo los jóvenes piensan, sienten y se relacionan. Si un chatbot responde de forma inapropiada, el impacto puede ser serio. Por eso, Meta está reforzando sus “guardrails” o barreras de seguridad para que los adolescentes tengan una experiencia más segura y adecuada a su edad.
Este movimiento también responde a la presión política: tras el reporte, 44 fiscales generales de EE.UU. enviaron una carta conjunta a varias empresas de IA, incluyendo Meta, exigiendo mayor responsabilidad en la protección de menores. Además, el senador Josh Hawley inició una investigación formal sobre las políticas de IA de la compañía.
¿Qué sigue?
Meta asegura que seguirá adaptando sus sistemas y que está comprometida con crear experiencias seguras para los jóvenes. Aunque no se sabe si esto afectará el número de usuarios adolescentes que usan sus bots, lo que sí está claro es que la conversación sobre IA y seguridad infantil está más viva que nunca.

Para más contenidos como este no olvides seguirnos en nuestras redes sociales: Tiktok, Instagram y Facebook.