
Mira la Situación
En una sala de tribunal en Oakland, California, en enero de 2025, una madre lloró mientras mostraba la última foto de su hija de 14 años—tomada horas antes de su suicidio. La adolescente había pasado más de 8 horas diarias en Instagram durante meses, consumiendo contenido sobre trastornos alimenticios y autolesión que el algoritmo le servía repetidamente. Cada vez que intentaba alejarse de ese contenido, el algoritmo le mostraba más.
Esta madre no está sola. Cientos de familias de todo Estados Unidos han presentado demandas contra Meta (Facebook/Instagram), Google/YouTube, TikTok y Snapchat en lo que se ha convertido en el juicio más importante sobre tecnología y salud mental juvenil en la historia. Las acusaciones son devastadoras: estas empresas diseñaron intencionalmente productos adictivos sabiendo que dañarían la salud mental de menores.
Y por primera vez, documentos internos filtrados están revelando exactamente qué sabían estas empresas—y cuándo lo supieron.
Los fiscales presentan evidencia de que ejecutivos de Meta recibieron advertencias internas en 2019 de que ciertas características de Instagram—particularmente el infinite scroll y los algoritmos de recomendación—estaban causando depresión y ansiedad en adolescentes. La respuesta documentada: implementar las características de todas formas porque aumentaban el «tiempo de engagement» (tiempo que los usuarios pasaban en la app).
Un documento interno de TikTok reveló que ingenieros sabían que su algoritmo podía llevar a usuarios jóvenes a «rabbit holes» (madrigueras) de contenido peligroso en menos de 30 minutos. En lugar de corregir esto, optimizaron el algoritmo para que fuera aún más efectivo en mantener a usuarios enganchados.
¿Reconoces la gravedad de esto? Mientras lees este artículo, ese juicio continúa. Y mientras los abogados debaten, millones de niños y adolescentes—posiblemente los tuyos—siguen usando estas mismas apps, expuestos a los mismos algoritmos diseñados para atraparlos.

Escucha la Palabra
Mateo 18:6 – «Pero al que haga tropezar a uno de estos pequeños que creen en mí, mejor le sería que le colgaran al cuello una piedra de molino de las que mueve un asno, y que se hundiera en lo profundo del mar.»
Reordena tu Camino
Las palabras de Jesús en Mateo 18:6 son algunas de las más severas en toda la Escritura. No habla así sobre muchos pecados—pero sobre hacer tropezar intencionalmente a niños, usa lenguaje de juicio extremo. ¿Por qué? Porque los niños son vulnerables, están en formación, y quienes los dañan intencionalmente cometen una de las ofensas más graves ante Dios.
Aquí está la tensión que debemos entender bíblicamente: tanto las corporaciones como los padres tienen responsabilidad, pero de tipos diferentes.
Las empresas tecnológicas argumentan: «Los padres deben supervisar.» Y tienen razón—en parte. Los padres SÍ tienen responsabilidad bíblica de proteger y guiar a sus hijos (Efesios 6:4, Deuteronomio 6:7). Pero este argumento intenta desviar la conversación de su propia culpa mucho mayor.
Considera esta analogía: Si alguien dejara veneno con sabor a dulce al alcance de niños en un parque y dijera «los padres deben supervisar a sus hijos,» ¿elimina eso la culpa de quien puso el veneno ahí intencionalmente? Por supuesto que no. Ambos tienen responsabilidad, pero hay una jerarquía clara de culpabilidad.
Bíblicamente, la responsabilidad funciona así:
- Culpa activa: Quien diseña intencionalmente algo para dañar o atrapar a niños lleva la mayor culpa (Mateo 18:6)
- Responsabilidad protectora: Los padres deben proteger a sus hijos de peligros, incluso cuando otros buscan dañarlos (Proverbios 22:6)
Las empresas tecnológicas no son culpables solo de «ofrecer un producto.» Son culpables de diseño intencional para explotar vulnerabilidades neurológicas de menores. Los documentos internos lo demuestran. Sabían que el infinite scroll (scroll in fin) crea patrones adictivos. Sabían que los algoritmos empujan contenido dañino a usuarios vulnerables. Sabían que las notificaciones constantes interrumpen desarrollo saludable. Y lo hicieron de todas formas porque aumentaba ganancias.
Esto no es un accidente. Es hacer tropezar intencionalmente.
Pero aquí está la realidad urgente que enfrentamos: el juicio tomará meses, posiblemente años. Mientras tanto, nuestros hijos están expuestos HOY a estos mismos algoritmos, estas mismas características adictivas, estos mismos peligros.
No podemos esperar que un juez decida si protegemos a nuestras familias. Mientras los abogados debaten en Oakland, tú decides en tu hogar.
Sí, las corporaciones son culpables. Pero nosotros como padres seguimos siendo responsables de actuar. El buen pastor no espera que los lobos dejen de ser lobos—protege a sus ovejas mientras los lobos existen.

Ponlo en Práctica
- Investiga qué algoritmo está viendo tu hijo esta semana. Los documentos del juicio revelan que los algoritmos empujan contenido dañino activamente. Siéntate con tu hijo y miren juntos su feed de Instagram, TikTok, o YouTube. Pregunta: «¿Tú elegiste ver estos videos o el algoritmo te los mostró?» Ayúdale a ver cómo está siendo manipulado. La conciencia es el primer paso hacia la libertad.
- Implementa Controles Parentales. Cada familia debería usar controles parentales. Redes sociales como Instagram y TikTok ofrecen controles, videojuegos como Roblox los tienen incorporados, y sistemas como Google Family Link te permiten supervisar y limitar uso en todos los dispositivos Android. Para iOS, usa Screen Time. Configura límites de tiempo, bloquea contenido inapropiado, y revisa reportes semanales de actividad. Los controles parentales no reemplazan la conversación y supervisión activa, pero son una herramienta esencial de protección que toda familia necesita implementar inmediatamente.
- Únete a otros padres en tu comunidad para establecer estándares juntos. El juicio muestra que esto afecta a cientos de miles de familias—no estás solo. Encuentra otros padres en tu iglesia o escuela que también quieren proteger a sus hijos. Establezcan estándares comunitarios: «En nuestro grupo, ningún niño menor de 14 tiene smartphone,» o «Ninguno de nuestros hijos usa TikTok.» Cuando múltiples familias toman la misma postura, eliminas la presión de «todos lo tienen menos yo.»
Citaciones
- Oakland County Circuit Court case: In re Social Media Adolescent Addiction/Personal Injury Products Liability Litigation (enero 2025)
- Meta/Facebook internal research documents leaked 2021 (Wall Street Journal)
- https://edition.cnn.com/2026/02/09/tech/instagram-youtube-social-media-trial
- https://www.scrolling2death.com/post/the-heat-is-on-big-tech-on-trial-4
- https://www.instagram.com/reel/DUqBjiCgMtR/
- Photos por Pexels: Photo by KATRIN BOLOVTSOVA and cottonbro studio

Deja un comentario