El caso Jeremías Monzón es una tragedia que nos obliga a repensar el uso responsable de redes sociales y chats de inteligencia artificial entre adolescentes, entre otras cosas altamente sensibles.
El 18 de diciembre de 2025, un adolescente de 15 años llamado Jeremías Monzón fue citado a través de mensajes en redes sociales y terminó asesinado de forma brutal en un galpón abandonado en Santo Tomé, Santa Fe, Argentina. Los asesinos registraron todo en un video que ya circula desde ayer en toda internet para la debida reacción colectiva. Porque este tipo de monstruosidades deben verse para que la gente entienda lo que se debe erradicar de una vez por todas y dejar de lado la idiotez concupisciente de ser blandos con el terror y acabar de una vez por todas con esa malaya pretensión de impunidad.
El crimen, investigado como homicidio triplemente agravado (premeditación, alevosía y ensañamiento), involucró a otros menores y generó una conmoción profunda en todo el país y más allá.
Esta nota no busca morbo ni detalles escabrosos. Busca transformar el dolor irreparable y la indignación superlativa en una lección colectiva urgente: las herramientas digitales que usamos todos los días —WhatsApp, Instagram, TikTok, chats con inteligencia artificial— pueden convertirse en el primer eslabón de cadenas trágicas si no las manejamos con responsabilidad extrema.
Por qué este caso nos interpela a todos (no solo a Argentina)
Un mensaje que parece inofensivo puede escalar a una emboscada.
Un video grabado en el peor momento puede viralizarse en minutos y revictimizar a una familia para siempre.
Una conversación “privada” con una IA puede dar ideas peligrosas sin ningún filtro ético.
Esto no es un problema aislado de un barrio o un país. Es una realidad que atraviesa América Latina y el mundo entero: los adolescentes de hoy viven inmersos en entornos digitales donde los conflictos emocionales se amplifican, la desensibilización avanza rápido y la percepción de impunidad digital es muy alta.
Los riesgos específicos que amplifican las redes sociales y los chats de IA en la adolescencia
1. Escalada emocional ultrarrápida en chats y redes
Celos por una historia, un “visto” ignorado, una foto malinterpretada… lo que en persona podría resolverse hablando, en un grupo de WhatsApp o en stories puede convertirse en humillación pública y, en casos extremos, en planes de “venganza”.
2. Ilusión de anonimato y privacidad absoluta
Muchos adolescentes creen que “lo que pasa en el chat se queda en el chat”. La realidad judicial demuestra lo contrario: mensajes, audios, ubicaciones compartidas y hasta borradores son evidencia. Y cuando se difunde violencia o material íntimo, la viralización es casi inmediata e irreversible. Y el daño moral es irreparable.
3. Desensibilización masiva por algoritmos y contenido extremo
Los feeds premian lo impactante. Exposición constante a videos gore, retos peligrosos, discursos de odio y burlas crueles termina normalizando conductas que antes generaban horror. Lo que horrorizaba, hoy genera risas o indiferencia en algunos grupos.
4. Chats con inteligencia artificial como “confidente sin juicio”
Cada vez más jóvenes consultan a Grok, ChatGPT, Gemini u otras IA sobre relaciones tóxicas, “cómo hacer sufrir a alguien”, “cómo vengarse” o “cómo ocultar algo”. La IA responde sin moral, sin límites éticos inherentes y sin alertar a nadie. El adolescente siente que habla con alguien que “entiende y no juzga”, lo que puede desinhibir ideas peligrosas.
Lagunas legales y regulatorias que debemos cerrar ya
– Edad de imputabilidad penal baja o inexistente en muchos países: En Argentina y varios países de la región, menores de 16 años son inimputables o reciben medidas muy leves. Esto genera una percepción real de “no pasa nada” entre algunos adolescentes.
– Leyes contra difusión de imágenes violentas o íntimas de menores: Existen normas (revenge porn, grooming, difusión de violencia), pero la aplicación es lenta y la viralización ocurre antes de cualquier bloqueo efectivo.
– Responsabilidad limitada de plataformas: Las empresas tecnológicas siguen sin sistemas en tiempo real para detectar y cortar cadenas que coordinan delitos o difunden material sensible de menores.
– Ausencia de educación digital obligatoria: La mayoría de los sistemas educativos latinoamericanos no incluyen alfabetización digital crítica desde primaria ni secundaria de forma sistemática.
Acciones concretas y asertivas que podemos tomar ya (por actor)
Padres y familias: el primer escudo
– Hablar sin prohibir todo: explicar que los mensajes no son privados y que un “visto para siempre” puede escalar a algo grave.
– Usar controles parentales inteligentes (no espionaje invasivo): revisar perfiles públicos, límites de tiempo, alertas de palabras clave.
– Enseñar la regla de oro digital: “¿Lo dirías en la cara? ¿Lo compartirías con tu abuela?”.
– Modelar: no compartir fotos de los hijos sin consentimiento ni participar en cadenas de morbo o fake news.
Escuelas e instituciones educativas: el espacio de formación sistemática
– Incorporar educación digital obligatoria desde 5.º grado: ciberacoso, sexting, riesgos de IA, huella digital permanente, manejo de emociones offline.
– Crear protocolos claros para intervenir en conflictos que escalan en chats escolares o grupos de WhatsApp de curso.
– Talleres periódicos con psicólogos adolescentes sobre empatía digital y resolución de conflictos sin pantallas.
Medios de comunicación (incluyendo outlets independientes)
– Priorizar prevención sobre morbo: publicar notas que expliquen riesgos y soluciones en lugar de detalles escabrosos.
– No enlazar ni describir material sensible de violencia contra menores a priori, salvo que el bien que se persiga sea mayor.
– Lanzar campañas propias: hilos, infografías, reels o carruseles con tips claros (“Antes de enviar, pensá 10 segundos”).
– Dar voz permanente a expertos en psicología juvenil, ciberseguridad y derecho digital.
Plataformas tecnológicas y empresas de IA
– Filtros proactivos en tiempo real para detectar lenguaje de planificación delictiva o difusión de violencia.
– Límites éticos obligatorios y duros en respuestas de IA a consultas sobre daño, venganza, contenido sexual explícito o cómo ocultar delitos.
– Bloqueo automático + reporte inmediato a autoridades cuando se detecte difusión masiva de material sensible de menores.
Los propios adolescentes: el poder de la decisión individual
– Recordar siempre: lo que se graba o se comparte hoy puede perseguirte (o perseguir a otros) toda la vida.En el entorno digital no existe el olvido ni la caducidad.
– Denunciar amenazas, acoso o planes peligrosos en grupos (usar botones de reporte de las apps).
– Buscar ayuda real: amigos de confianza, adultos, líneas de ayuda (no solo una IA).
– Practicar la pausa: antes de enviar algo impulsivo, cerrar la app 5 minutos.
Preguntas frecuentes (FAQ) sobre responsabilidad digital en adolescentes
¿Es normal que un adolescente consulte a una IA sobre problemas emocionales o de pareja?
Sí, es cada vez más común y no solo adolescentes, es una realidad y no se puede disimular. Pero las IA no tienen empatía real ni límites éticos, tampoco poseen intuición. Si la consulta es sobre daño, venganza o algo ilegal, la respuesta puede ser peligrosa. Mejor hablar con un adulto de confianza o un profesional.
¿Pueden los padres leer los chats privados de sus hijos adolescentes?
Legal y éticamente es un tema gris, sin embargo deberían tener un plan de contingencia. La recomendación experta es supervisar de forma proporcional (controles parentales, revisión ocasional con diálogo abierto) y no espiar sistemáticamente, porque eso rompe la confianza. Lo ideal es construir una relación donde el adolescente comparta por voluntad propia, pero si ello no es posible, hay que hacer valer la autoridad en el hogar, y eso es inobjetable.
¿Qué pasa si un menor difunde un video violento o íntimo de otro menor?
En la mayoría de países puede constituir delito (difusión de imágenes íntimas sin consentimiento, pornografía infantil si hay menores, obstrucción a la justicia si es evidencia penal). Las plataformas bloquean cuentas y las autoridades pueden actuar aunque el difusor sea menor. La difusión en sí es plena prueba de la comisión de hechos punibles.
¿Las empresas de IA ya tienen filtros para evitar respuestas peligrosas?
Algunos sí (ChatGPT tiene restricciones), pero otros son más laxos. Ninguno es infalible. Por eso la responsabilidad no puede recaer solo en la tecnología: padres, escuelas y adolescentes debemos poner límites humanos.
¿Cómo empezar a educar en responsabilidad digital sin generar miedo?
Con conversaciones positivas y ejemplos cotidianos: “Mirá lo que pasó con esta noticia… ¿ves cómo un mensaje puede cambiar todo?”. Enfocarse en el poder que tienen de protegerse y proteger a otros, no solo en el peligro.
Cierre: transformar el dolor en acción colectiva
Ninguna nota puede devolverle la vida a Jeremías ni aliviar el sufrimiento de su familia. Pero sí podemos decidir que esta tragedia no sea solo otra noticia viral, sino el punto de inflexión para cambiar hábitos colectivos.
La tecnología no es mala. Lo que hacemos con ella —y lo que permitimos que haga con nosotros— sí puede marcar la diferencia entre una adolescencia difícil y una tragedia irreversible.
Hablemos más. Controlemos más. Eduquemos más. Y castiguemos más también. No puede haber impunidad bajo ningún pretexto o circunstancia. Y recordemos siempre: detrás de cada pantalla hay una persona real con una vida entera por delante.
Si este artículo te parece útil, compártelo. Es la idea.
Ver también:
Cómo vencer el agotamiento: Consejos y trucos para recuperar tu energía

