Cuando el daño no es un hecho, sino un entorno
En México, hoy, más de 90 millones de personas usan redes sociales. No es un dato menor: significa que siete de cada diez habitantes están expuestos diariamente a contenidos que no pasan por ningún filtro previo. Dentro de ese universo hay un dato que suele llamar más la atención: alrededor de 16 millones de esos usuarios son menores de edad.
#VideoColumna | Cuando el daño no es un hecho, sino un entorno. El análisis de la Mtra. Miryam Camacho #Opinión @MIRYAMCAMACHO pic.twitter.com/6mMM0olVkP
— Víctor Americano Noticias (@americanovictor) February 5, 2026
Niños y adolescentes que entran todos los días a plataformas diseñadas para adultos, muchas veces sin que nadie verifique realmente cuántos años tienen. En la práctica, basta con marcar una casilla, usar la cuenta de un padre o mentir en la fecha de nacimiento para acceder a contenidos que no distinguen entre madurez, edad o capacidad de juicio.
En ese contexto, los llamados retos virales dejaron de ser una anécdota. En México ya hemos visto adolescentes hospitalizados, y en algunos casos fallecidos, tras intentar desafíos difundidos en redes sociales: pruebas de asfixia, consumo de sustancias, conductas de alto riesgo convertidas en tendencia. No fue un solo video ni un solo creador. Fue un entorno que empujó, normalizó y recompensó la conducta.
Cuando eso ocurre, la pregunta aparece casi de inmediato, en sobremesas, noticieros y redes: ¿de quién es la responsabilidad?
En 2024, el tema volvió con fuerza a la conversación pública a partir de varios casos registrados en Zacatecas, donde adolescentes murieron en circunstancias asociadas a la imitación de retos virales difundidos en redes sociales. En pocos días se reportaron más de dos casos, lo que encendió alertas entre autoridades educativas, padres de familia y medios nacionales.
No era la primera vez. Años antes, en México ya se había hablado del llamado BlackoutChallenge, un reto de asfixia que circuló globalmente y que motivó advertencias oficiales tras la muerte de menores en distintos países, incluido el nuestro. Más recientemente, en 2023, autoridades de salud y educación alertaron sobre retos que implicaban la ingesta de medicamentos controlados, como clonazepam, luego de que estudiantes fueran atendidos por intoxicación.
Los contextos cambian, los retos se renuevan, pero el patrón se mantiene: contenidos que circulan, se replican y se validan socialmente con rapidez, especialmente entre jóvenes.
En plataformas de alta circulación juvenil como TikTok, el incentivo es claro: más vistas, más reacciones, más reconocimiento. Nadie da la orden, pero el sistema premia la conducta. Y en ese juego participan menores que aún no cuentan con las herramientas para medir consecuencias.
Después del impacto mediático llega la exigencia de respuestas. ¿Se puede denunciar? ¿A quién? ¿A la plataforma, al creador del contenido, a nadie?
Aquí aparece una complejidad adicional que suele pasarse por alto. Desde hace más de una década, organismos internacionales como la Organización de las Naciones Unidas han sostenido que el acceso a Internet está estrechamente vinculado al ejercicio de derechos humanos fundamentales, como la libertad de expresión y el acceso a la información. En México, además, el derecho de acceso a las tecnologías de la información y a Internet está reconocido a nivel constitucional desde 2013.
Este dato introduce un matiz incómodo pero necesario: limitar el acceso no es una decisión neutra, ni jurídica ni políticamente. Un menor es, antes que nada, una persona titular de derechos. Y ese argumento, con razón, suele aparecer también en la defensa de las plataformas cuando se les exige mayor control.
Sin embargo, reconocer el acceso a Internet como un derecho no implica asumir que todo acceso debe ser irrestricto, ni que todos los usuarios tienen la misma capacidad para ejercerlo de manera autónoma. De hecho, ningún otro derecho se ejerce sin límites cuando entran en juego la edad, la madurez o la protección de terceros.
En México, estas preguntas rara vez se traducen en demandas formales contra empresas tecnológicas. No porque el daño no exista, sino porque el marco legal tiene dificultades para encuadrar fenómenos que no se presentan como hechos aislados, sino como dinámicas de exposición, imitación y presión social.
En otros países, el debate ya se desplazó al terreno judicial. En Estados Unidos, padres de familia, fiscales estatales y distritos escolares han presentado demandas contra grandes plataformas. El argumento no gira en torno a un reto específico, sino al diseño de entornos digitales que, según los demandantes, incentivan conductas adictivas o de riesgo entre menores.
Más allá del desenlace de esos procesos, el dato relevante es otro: cuando el daño no tiene autor único ni momento preciso, el derecho empieza a tensarse.
Ante ese desfase, algunos Estados han optado por intervenir antes del daño. En Australia, por ejemplo, ya se implementó la verificación biométrica de edad para limitar el acceso de menores a redes sociales. La lógica es directa: si el entorno digital no distingue edades, el riesgo se multiplica.
El Reino Unido avanza en la misma dirección, y en Estados Unidos el debate está abierto, con resistencias vinculadas a privacidad y libertades civiles. Ninguna de estas medidas es definitiva ni está exenta de controversia, pero todas parten de un mismo diagnóstico: ya no basta con sancionar después.
Aquí aparece el núcleo del problema. La ley está diseñada para sancionar hechos: un acto, un responsable, un tiempo, un lugar. Pero los fenómenos que hoy generan mayor inquietud social no funcionan así. Los retos virales, la presión por validación en redes y la exposición constante a estímulos extremos no ocurren en un instante ni por una orden directa. Son circunstancias que se construyen con el tiempo, la repetición y la amplificación.
Regular un hecho no es lo mismo que intentar regular un entorno.
Las plataformas digitales tienen responsabilidad, sin duda. Diseñan entornos, establecen incentivos y deciden qué se amplifica y qué no. Pero esa responsabilidad no puede ser total ni excluyente.
En el caso de los menores, hay límites claros que ninguna ley ni ningún algoritmo puede sustituir. Un niño o adolescente no ha desarrollado plenamente la capacidad de autocontrol ni de evaluación de riesgos. Tratarlo como si fuera un adulto en sistemas pensados para adultos es una ficción peligrosa.
Pensar que una plataforma, o el Estado, puede reemplazar la supervisión adulta es tan irreal como pedirle a un automóvil que enseñe a manejar a quien se sienta frente al volante. La responsabilidad es compartida o no es efectiva.
Tal vez el punto no sea decidir si las redes son culpables o inocentes, sino aceptar que el daño, en el mundo digital, ya no siempre tiene forma de hecho concreto. A veces es el resultado de entornos mal calibrados para millones de usuarios, incluidos millones de menores.
Las leyes empiezan a adaptarse, las plataformas ensayan controles y los padres siguen siendo una pieza insustituible. Ninguno de estos elementos, por sí solo, resuelve el problema. Pero juntos revelan algo inevitable: el mundo cambió, y el derecho tendrá que aprender a regular no solo conductas, sino circunstancias.
Miryam Elizabeth Camacho Suárez
Comunicadora y abogada con formación en Ciencias Políticas. Combina la precisión del derecho con la sensibilidad narrativa para explorar temas de integridad, transparencia y cultura digital. A lo largo de su trayectoria ha trabajado en el fortalecimiento de la confianza pública y en la reflexión sobre cómo se comunican las instituciones y cómo se preserva la memoria en tiempos de sobreinformación. Actualmente desarrolla proyectos editoriales que entrelazan comunicación, ética y tecnología.