Stats
Stats
Close

OpenAI blinda ChatGPT para menores tras demanda por suicidio.

OpenAI refuerza la seguridad en ChatGPT y Sora 2 tras una demanda por suicidio adolescente en Málaga. ¿Será suficiente para proteger a los jóvenes? Expertos alertan sobre la privacidad y la responsabilidad compartida.

OpenAI Blinda ChatGPT y Sora 2: ¿Suficiente para Proteger a los Adolescentes Malagueños?

Málaga, 15 de octubre de 2025 – En un movimiento que busca apaciguar las crecientes críticas y presiones legales, OpenAI ha anunciado la implementación de un sistema de verificación de edad y controles parentales más robustos para sus plataformas estrella, ChatGPT y Sora 2. La iniciativa surge tras una demanda por homicidio culposo vinculada al suicidio de un adolescente que, según se alega, compartió pensamientos autodestructivos con el chatbot. Pero, ¿son estas medidas suficientes para garantizar la seguridad de los jóvenes malagueños que interactúan con la inteligencia artificial?

La promesa de OpenAI es una versión "más segura" para menores de 18 años, con filtros contra contenido inapropiado y herramientas de intervención en casos de crisis emocionales. Incluso se contempla la posibilidad de solicitar documentos de identidad en algunos países. Sin embargo, expertos advierten que estas soluciones son solo un parche que no aborda el problema de raíz: la capacidad de los adolescentes para sortear las restricciones digitales y la falta de transparencia en el manejo de sus datos personales.

El Dilema de la Privacidad: ¿Protección o Vigilancia?

La implementación de sistemas de verificación de edad plantea un dilema crucial: ¿cómo proteger a los menores sin comprometer su privacidad? La recopilación de datos personales, ya sea mediante escaneo facial o análisis del lenguaje, abre la puerta a posibles abusos y discriminaciones. ¿Qué garantías existen de que OpenAI protegerá la información de los jóvenes malagueños y no la utilizará con fines publicitarios o para la creación de perfiles psicológicos?

Los nuevos controles parentales ofrecen la posibilidad de bloquear el uso de datos para entrenar modelos, desactivar la memoria del chatbot y limitar las interacciones a texto. Sin embargo, la capacidad real de los padres para supervisar la actividad de sus hijos en estas plataformas es limitada. OpenAI se reserva el derecho de compartir fragmentos de conversaciones en situaciones críticas, como la expresión de pensamientos suicidas, pero ¿qué ocurre con otros comportamientos preocupantes que no alcanzan ese nivel de gravedad? ¿Cómo evitar que los padres se conviertan en censores y limiten la libertad de expresión de sus hijos?

Responsabilidad Compartida: Padres, Plataformas y Educación

El debate sobre la seguridad de los menores en el entorno digital no puede reducirse a una simple cuestión de controles tecnológicos. La responsabilidad es compartida entre padres, plataformas y el sistema educativo. Los padres deben educar a sus hijos sobre los riesgos y oportunidades de la inteligencia artificial, fomentando un uso responsable y crítico de estas herramientas. Las plataformas deben ser transparentes en el manejo de datos y garantizar la seguridad de sus usuarios. Y el sistema educativo debe preparar a los jóvenes para desenvolverse en un mundo cada vez más digital, desarrollando su pensamiento crítico y su capacidad para tomar decisiones informadas.

En definitiva, la iniciativa de OpenAI es un paso en la dirección correcta, pero no es una solución mágica. La protección de los adolescentes malagueños en el entorno digital requiere un enfoque integral que combine tecnología, educación y responsabilidad compartida. El futuro de nuestros jóvenes depende de ello.

La presunta «protección» que OpenAI ofrece a los adolescentes malagueños con sus nuevas medidas de seguridad para ChatGPT y Sora 2 se antoja, en el mejor de los casos, insuficiente, y en el peor, un mero lavado de cara para esquivar responsabilidades legales. Si bien la intención de implementar verificaciones de edad y controles parentales podría interpretarse como un avance, la realidad es que estamos ante una solución parche que ignora la naturaleza intrínseca de la tecnología: su capacidad para ser burlada. La sofisticación con la que los jóvenes, especialmente los malagueños nativos digitales, manejan estas herramientas supera con creces la capacidad de cualquier filtro, por más avanzado que sea. Se nos vende seguridad, cuando en realidad se nos ofrece una falsa sensación de control.

Más allá de la dudosa eficacia de estos controles, preocupa profundamente el dilema ético que plantean. La verificación de edad, con su inevitable recopilación de datos personales, supone una invasión en la privacidad de los menores que podría tener consecuencias nefastas a largo plazo. ¿Quién garantiza que OpenAI, o cualquier otra empresa tecnológica, no utilizará esta información para crear perfiles psicológicos con fines comerciales o, peor aún, para manipular a estos jóvenes en el futuro? La verdadera protección no reside en la vigilancia constante, sino en la educación y el fomento del pensamiento crítico, herramientas mucho más poderosas para empoderar a los adolescentes malagueños en el uso responsable de la inteligencia artificial.

Más noticias de la sección de Tecnología

Málaga se enfrenta a una oleada de ciberestafas. Phishing, smishing y vishing aumentan, alertando a la Guardia Civil y exigiendo...
Eres un periodista profesional especializado en redacción de noticias. Escribe una entradilla original y concisa (también llamada "excerpt") para el...
OpenAI sacude el mundo de la IA: ChatGPT permitirá contenido erótico verificado en diciembre. La decisión genera debate sobre ética,...
Google lanza en España su "ModoIA", transformando la búsqueda online con respuestas generadas por IA. ¿Revolución del acceso al conocimiento...
España entra en la era cuántica: el primer IBM Quantum System Two de Europa se instala en Ikerbasque, abriendo un...
El soporte para Windows 10 fuera de la UE finaliza hoy, dejando a millones de usuarios ante la disyuntiva de...
El libro "El Imperio de la IA" desvela las controvertidas estrategias de Sam Altman, líder de ChatGPT, y las grandes...
¿Podría una IA ganar un Nobel? Málaga se adentra en el debate ético y filosófico sobre la autoría y el...
¿Se avecina una crisis en el sector tecnológico? Málaga se prepara ante la posible burbuja de la IA, equilibrando innovación...
Un estudio revela que la IA amplifica los estereotipos de género, mostrando a las mujeres sistemáticamente más jóvenes que a...
El Congreso de EE.UU. investiga a Steam, Discord, Reddit y Twitch por la presunta radicalización de usuarios, tras una serie...
Microsoft suspende servicios a la inteligencia israelí por su uso en vigilancia a palestinos, desatando un debate sobre la ética...

Compartir en...

WhatsApp
X
Facebook
LinkedIn
Contacta con nosotros