En medio de un panorama digital cada vez más complejo, el cibercrimen ha alcanzado cifras alarmantes. En 2024, se estima que una de cada cinco infracciones cometidas en el mundo tiene su origen en ataques cibernéticos. Este aumento exponencial ha colocado a la delincuencia digital como una de las economías más lucrativas, superando incluso a sectores establecidos. La Coordinación de Ciberseguridad de la Guardia Civil advierte que la proyección para el próximo año es aún más sombría, con un esperado incremento de las denuncias en un 20% respecto a 2024.
Desde el inicio de este año, España se ha convertido en el quinto país más afectado por ataques cibernéticos, experimentando un dramático incremento en el número y la sofisticación de los mismos. Con 58 eventos de ransomware reportados en solo los primeros seis meses, un aumento del 38% respecto al año anterior, los ciberdelincuentes han localizado tanto a pequeñas empresas como a grandes corporaciones, desde comercios locales hasta multinacionales. Este fenómeno no solo afecta a entidades privadas; instituciones públicas como hospitales también han sido blanco de estos ataques, exponiendo vulnerabilidades críticas en la infraestructura digital del país.
Las técnicas de ingeniería social, que manipulan a los individuos para obtener información confidencial, continúan siendo el principal vector de ataque. Expertos en ciberseguridad han señalado que el phishing permanece como el método más utilizado. Este tipo de fraude se basa en la creación de correos electrónicos falsos que simulan ser instituciones legítimas, logrando que las víctimas revelen sus contraseñas o, en ocasiones, incluso dinero. La persuasión y la manipulación son herramientas clave en el arsenal de los ciberdelincuentes, que buscan aprovechar la confianza de los usuarios.
La situación se complica aún más con la creciente dependencia de las empresas en el entorno digital. “Los empleados utilizan a menudo credenciales compartidas entre sus dispositivos personales y corporativos, lo que les convierte en blancos ideales para ataques avanzados que pueden culminar en un robo masivo de datos”, afirma Marc Rivero, investigador principal en Kaspersky. Esto significa que un solo error en la gestión de contraseñas puede llevar a consecuencias desastrosas para la seguridad de una organización.
Un aspecto inquietante que ha surgido en 2024 es el aumento desproporcionado en los pagos de rescates por parte de empresas que buscan recuperar el control de sus sistemas. Este año se registró el mayor pago jamás hecho a ciberdelincuentes, alcanzando los 72 millones de euros, casi el doble del récord anterior. A pesar de la creciente condena de los expertos hacia el pago de rescates, la presión y el miedo a la pérdida de datos y reputación empujan a muchas compañías a ceder ante las exigencias. “La realidad es que un alto porcentaje de las víctimas optan por pagar, a pesar de las advertencias sobre la inseguridad de este camino”, añade Ángela García, técnica del Instituto Nacional de Ciberseguridad.
El desafío de combatir el cibercrimen sigue creciendo, y aunque las autoridades intentan implementar medidas de seguridad, la naturaleza siempre cambiante de las tácticas utilizadas por los atacantes plantea un problema complejo. La pregunta que queda en el aire es: ¿cuándo dejarán de ser vulnerables nuestras redes y nuestros datos? Estar preparado y educado sobre los riesgos digitales parece ser la única defensa genuina en esta guerra continua contra el cibercrimen.
El cibercrimen en 2024 no es solo un asunto técnicamente complejo, sino una crisis profundamente social y económica que refleja importantes fallas en nuestras estructuras de seguridad digital. La noticia revela que España se ha situado como el quinto país más golpeado por ataques cibernéticos, lo que debería provocar un llamado de atención inmediato entre las instituciones y el sector privado. Sin embargo, a pesar de la creciente ola de ataques de ransomware y el aumento en los pagos de rescates, la respuesta sigue siendo insuficiente. Mientras las empresas eligen ceder ante la presión y pagar sumas astronómicas, como los 72 millones de euros en rescate este año, el mensaje es claro: las víctimas se ven atrapadas en una espiral de vulnerabilidad que incentiva a los ciberdelincuentes a seguir operando con impunidad. Este enfoque reactivo y no preventivo sugiere que, más que una crisis tecnológica, nos encontramos ante un fracaso colectivo para enfrentar esta nueva forma de delincuencia que amenaza no solo a las empresas, sino a la esencia misma de nuestra sociedad digital.
Por otro lado, debemos cuestionar la educación y la capacitación en ciberseguridad que reciben tanto los empleados como los líderes de las organizaciones. La creciente dependencia de herramientas digitales, sumada a prácticas de manejo de información inadecuadas como el uso de credenciales compartidas, constituye un terreno fértil para el cibercrimen. Es imperativo que se fomente una cultura de concienciación y formación continua en ciberseguridad, donde cada miembro de una organización asuma un rol activo en la protección de datos sensibles. Las acciones de sensibilización y los programas de formación pueden ser la clave para activar mecanismos de defensa que no solo protejan a las corporaciones, sino que fortalezcan la resiliencia de toda la sociedad contra este fenómeno global. Abordar el cibercrimen con una visión holística e inclusiva es el desafío que tenemos por delante; solo así podremos aspirar a un futuro digital más seguro y sustentable.
Todo suena natural. La dicción es buena, las palabras se entrelazan al ritmo debido y forman frases fluidas, con las pausas que uno haría al leer un texto. La entonación y la velocidad del habla también parecen humanas. Pero no lo son: estamos escuchando un audiolibro narrado por una voz sintética. Nadie se ha sentado en un estudio a grabarlo, y eso preocupa a los narradores profesionales, que ya están viendo caer sus ingresos. La industria, en cambio, cree que las voces generadas con inteligencia artificial (IA) democratizarán la publicación de audiolibros, hasta el momento solo al alcance de las grandes editoriales.
El mercado del audiolibro es todavía pequeño en España (hay entre 30.000 y 40.000 títulos publicados en castellano, frente a 200.000 en alemán o 700.000 en inglés), pero en rápida expansión. Un reciente informe de la distribuidora de contenidos digitales Demarque cifra en un 40% el crecimiento del sector en 2024 respecto al año anterior. El 80% de los usuarios apuesta por modelos de suscripción, mientras que el resto se reparte entre la venta unitaria y el préstamo bibliotecario, que el año pasado aumentó un 16%.
“Yo calculo que, para finales de esta década, en menos de cinco años, habrá un sorpasso de voces sintéticas frente a las humanas en los audiolibros. Y creo que es una previsión conservadora”. Así lo ve Javier Celaya, consultor y empresario de larga trayectoria en el sector de los podcasts y audiolibros. “Hoy en día hay publicados en todo el mundo unos 1,3 millones de audiolibros narrados por personas. Pero, al ritmo que están creciendo las producciones con IA, y fijándonos en lo que sucede en el mercado anglosajón, que es el más maduro, no tardarán en superar al resto”, opina.
“Estoy convencido de que esto va a explotar a muy corto plazo, como ya está sucediendo en EE UU”, coincide Joaquín Sabaté, consejero delegado de Ediciones Urano, una de las editoriales españolas que más están apostando por la producción de audiolibros con IA. Esta empresa familiar ha desarrollado una tecnología propia que adapta otras ya existentes a las especificidades del mundo editorial. El cliente solo tiene que entregar el libro original y un pequeño guion de una página sobre lo que busca (tipo de voz, tono, músicas, etcétera). Su herramienta, que incorpora curación humana para “asegurar cierto nivel de calidad”, puede tener listo un audiolibro en un día y medio, frente a las semanas de trabajo que suele comportar un trabajo en estudio (cada hora de narración supone entre seis y ocho horas de grabación).
Esa es la razón del éxito de las voces sintéticas: rebajan mucho los costes de producción. “Un audiolibro con narración sintética es por lo menos 10 veces más barato. En términos orientativos, un libro de unas 380 páginas puede costar entre 3.500 y 5.000 euros, que para algunos editores es muchísimo dinero. Apostar por la IA lo reduce a 200 o 300 euros”, ilustra Sabaté. “Creo que la IA democratizará los audiolibros y permitirá a los pequeños editores poder subirse a esta ola”, añade. “Como oyente, poder acceder a más contenidos me parece genial. Estoy más informado y entretenido que nunca gracias a la IA”, sostiene Celaya. “Es cierto que los profesionales se verán afectados, igual que está pasando ya con los traductores o los ilustradores. Las voces humanas se seguirán demandando, pero para productos de alta gama”.
Antonio Abenojar es un pionero en el mundo de la narración de audiolibros. “Yo empecé hace 40 años con la ONCE. Para mí fue una escuela”, recuerda. Este actor de doblaje, locutor y director de 62 años corrobora que la IA ha rebajado sus ingresos, “tirando a la baja, un 50%” en los últimos dos o tres años. En los últimos tiempos se ha especializado en la narración de documentales, donde de momento no tiene problemas. “Todo lo que no exige un componente emocional se lo lleva la IA. Ya lo estamos viendo e irá a más”, se lamenta.
“Todavía tienen que mejorar, pero la calidad que se ha conseguido en los últimos dos años en las voces sintéticas es espectacular. Creo que las voces humanas no desaparecerán de los audiolibros, especialmente en ficción, donde la gente quiere que haya más pasión”, subraya Idoia Cantolla, cofundadora de VoicepoweredAI, un estudio de producción que crea todo tipo de contenidos sonoros, como podcasts, audio series o audiolibros, con IA. “Pero hemos hecho pequeños estudios de mercado que nos dicen que al consumidor no le importa tanto el narrador cuando escucha un ensayo”.
Otras empresas, como Storytel, aprovechan la IA para aportar nuevas funcionalidades al lector. En sus audiolibros, esta plataforma ofrece la opción de alternar entre diferentes voces, tanto sintéticas como humanas, para personalizar la experiencia auditiva. “Las voces de IA están concebidas para complementar, no para reemplazar a los narradores humanos. Esta función, Voice Switcher, ya está disponible para más de 100 títulos en inglés, polaco, sueco, finlandés y danés”, comenta Maribel Riaza, responsable de adquisición de contenidos de la plataforma. La ejecutiva cree que, dado que tienen comprobado que un porcentaje significativo de oyentes ha abandonado libros por no gustarles la voz del narrador, el Voice Switcher puede ayudar a retener esos usuarios.
«. No uses formato HTML, escribe tu respuesta directa en formato de texto plano. Quiero que el titular sea breve y conciso.Marysol Ruberte no podía creer lo que estaba viendo en la televisión. El presidente de Aragón, Jorge Azcón, acababa de anunciar que el fondo Azora construiría un gran centro de datos en su pueblo, Villamayor de Gállego, a las afueras de Zaragoza. La gestora dispondría de 80 hectáreas, que actualmente son terrenos de uso agrícola y están al norte del término municipal, para levantar una infraestructura con una capacidad inicial de 150 megavatios (MW) ampliables hasta 300 MW, lo que le convertiría en uno de los más grandes de España. Ruberte se enteró así, por las noticias, pese a ser la concejala encargada de lidiar con este tipo de proyectos. “Llamé inmediatamente al alcalde para pedirle explicaciones. Me dijo que, justo antes de la comparecencia de Azcón, le telefoneó Octavio López [consejero de Fomento, Vivienda, Movilidad y Logística] para avisarle”, recuerda.
Para cuando lograron reunirse con representantes del gobierno autonómico, ya se había publicado en el Boletín Oficial de Aragón una Declaración de Interés General (DIGA), el paso previo al PIGA (Proyecto de Interés General de Aragón), que es el mecanismo usado para bendecir las inversiones consideradas estratégicas con trámites burocráticos más cortos y con la exención de impuestos municipales. Por esa vía se está gestionando la ampliación de los tres centros de datos que tiene Amazon en Aragón y los cuatro que quiere construir Microsoft, además de otros tantos que, como el de Azora en Villamayor o como el que se acaba de anunciar en el municipio de al lado, La Puebla de Alfindén, no están directamente relacionados con una gran tecnológica. El PIGA es el instrumento con el que Azcón quiere convertir Aragón, como él mismo ha dicho, en “la Virginia europea”, en referencia al Estado norteamericano con mayor acumulación de este tipo de infraestructuras.
La reacción del Consistorio ha sido tajante: no quieren saber nada del centro de datos. “No estamos de acuerdo ni con las formas ni con el fondo. Creemos que hipoteca el crecimiento del municipio”, sentencia el alcalde, José Luis Montero Lostao. Así se lo manifestaron Montero y Ruberte a una delegación del Gobierno de Aragón, que ha preferido no contar su versión de los hechos a EL PAÍS, en la única reunión en la que han tratado este asunto, celebrada días después de la publicación del DIGA.
El encuentro fue tenso. Los tres representantes del equipo de Azcón no entendían el porqué de la negativa y le reprocharon al alcalde que no lo hubiera dicho antes de que se hiciera oficial en el BOA. Este respondió que lo habría hecho si se le hubiera consultado; sus interlocutores replicaron que la empresa, Azora, aseguraba que todo estaba hablado con el Ayuntamiento. Montero lo niega. Dice que solo tuvo dos reuniones con el fondo, en septiembre y noviembre de 2024, en las que no se concretó nada: se les dio información sobre posibles terrenos —“como hacemos con todas las empresas que vienen a vernos”, apostilla—, y se les transmitió que Villamayor de Gállego no tiene interés en alojar otro centro de datos.
Porque ya tienen uno en marcha, uno de los cuatro que Microsoft abrirá en el área metropolitana de Zaragoza. El complejo, que aún no ha presentado el PIGA, ocupará 90 hectáreas de suelo industrial al sur del municipio, junto al polígono de Malpica. “Son terrenos que estaban previstos para ese uso”, especifica Montero. Desde el Consistorio aseguran que la comunicación ha fluido con la tecnológica, que ha aceptado peticiones como encargarse de construir una entrada directa desde la autopista A2, que pasa junto al pueblo, para que el tráfico no afecte a los 2.800 vecinos, y también proteger el patrimonio arqueológico. El campus de Microsoft lindará con otro gran proyecto, que también está tramitando un PIGA, esta vez del sector agroalimentario: un centro logístico del Grupo Costa que abarcará 150 hectáreas.
Fuentes de Azora confían en poder convencer al Ayuntamiento de Villamayor de que su proyecto es bueno para el pueblo. Confirman que se reunieron con el Consistorio antes de la publicación del DIGA, aunque no entran en detalles sobre el contenido de esos encuentros, y manifiestan su intención de seguir con los contactos para poder adaptarse a las exigencias del municipio.
Desde la ermita de Nuestra Señora del Pueyo, situada en una colina en el extremo norte del casco urbano, se ven los verdes campos que quedan más allá de los tejados rojizos del pueblo. Pero basta con darse la vuelta y mirar hacia el noreste para que el paisaje cambie totalmente: Villamayor es el último pueblo antes de entrar en los Monegros, una de las regiones más áridas de España. Aunque se puede apreciar que las excepcionales lluvias de este año han cambiado temporalmente los tradicionales tonos grisáceos y marrones de los campos por el verde.
Villamayor de Gállego tiene una ubicación privilegiada desde el punto de vista industrial. Está a pie de la autopista A2 y a solo 20 minutos de Zaragoza en coche. Una de las subestaciones eléctricas más grandes de Aragón, la de Peñaflor, está en su término municipal, al norte (ya en los Monegros). Máquina Solar, la empresa filial de Azora que construirá el centro de datos, quiere ubicarlo justo al lado de esas instalaciones. El municipio recibe su nombre del río Gállego, uno de los principales afluentes del Ebro, que nutre la Acequia de la Camarera, de la que bebe la huerta que queda al oeste del pueblo. Tiene agua y conexión directa a la red energética.
«. No uses formato HTML, escribe tu respuesta directa en formato de texto plano. Quiero que el titular sea breve y conciso.“¿Esto es verdad?”. Momentos después de conocerse quién sería el nuevo papa, mi móvil empezó a recibir mensajes y audios asegurando que ChatGPT había adivinado la elección de Robert Francis Prevost. Yo quería ponerlo en modo avión en el patio de butacas antes de ver la formidable Orlando, pero el móvil ardía: “Lo han dicho en la SER, ha acertado, flipo en colores”. En la retransmisión de La Ventana que seguía la fumata blanca, realizaron la consulta y “predijo” que sería el estadounidense. Adivinar, acertar y predecir son verbos muy distintos, sobre todo si estamos en el ámbito del periodismo. Pero da igual: ChatGPT no hizo ninguna de esas tres cosas. Es solo un programa que devuelve respuestas random, tratando de encajar lo mejor posible las piezas con las que se ha alimentado, como noticias pasadas y recientes.
Esta mañana de viernes, cuando iba hacia la redacción del periódico, le he preguntado a ChatGPT: “¿Quién va a salir elegido papa?”. Su respuesta ha sido: “Actualmente no hay un cónclave en curso ni se ha producido la renuncia o fallecimiento del Papa Francisco, por lo que no hay elección papal prevista”. No es que el programa de OpenAI tuviera una apuesta firme por Prevost para todo el mundo, es que habría dado una respuesta distinta cada vez que cualquiera de sus 700 millones de usuarios, en función de miles de factores como los intercambios previos con el individuo, las palabras usadas en la cuestión, la versión del programa, etc. Cuando un modelo de lenguaje responde, no busca en una base de datos ni lee el futuro: genera palabras mientras escribe y va enfriando o calentando probabilidades en función de distintos factores. Si antes hablaste de cardenales latinos, se sesgará hacia nombres de esa región. No es lo mismo preguntar “¿quién será papa?” que “dime el favorito para ser papa”. Y por eso puede darnos a la vez respuestas completamente equivocadas como la que me da a mí, o bien orientadas, como la que dio a La Ventana, porque decidió basarse en noticias recientes de calidad.
La agencia EFE también ha buceado en el asunto: “Otros medios de comunicación, como El Economista, también hicieron pruebas y publicaron el nombre del elegido en el cónclave antes de que se supiera. También el diario El Sol de Mendoza (Argentina) preguntó a ChapGPT y “aseguró que Prevost ya había sido electo como el nuevo líder de la iglesia”, según la web del medio, que muestra una captura de pantalla de la respuesta de la IA, que se produjo minutos antes”. Prevost estaba en todas las quinielas, es un tipo con cargo en la curia, y el New York Times, el periódico más importante del mundo, apostó hace unos días por él, ¿tan raro es que (en algunas respuestas) sugiriera su nombre? ¿A cuántos periodistas les dijo que ganaría Pietro Parolin, y que lógicamente no han publicado una noticia para contarlo? Preguntemos todos hoy quién marcará el gol decisivo del Clásico del domingo y el lunes solo se acordarán los que obtuvieran el jugador correcto (a mí me ha dicho Mbappé y espero que se equivoque).
El episodio solo ilustra la tendencia a atribuir poderes proféticos al programa de OpenAI, que solo regurgita lo que ha sisado por ahí, ¿por qué le seguimos atribuyendo propiedades mágicas o sobrenaturales? La herramienta de inteligencia artificial (IA) solo parasita la pericia de otros: sin expertos vaticanólogos, la “magia” desaparece. Y aun así, hay gente que cree que el programa lo sabía; no simplemente que acertara, sino que por algún tipo de capacidad prodigiosa fue capaz de profetizarlo. Y ahí es donde el tema se complica. Un estudio reciente de Fecyt se analizó la percepción de la IA entre los españoles: “El público general aún tiene dificultades para conceptualizar la IA, a pesar de su creciente presencia en la vida cotidiana y los medios”. Tenemos un carajal importante y buena parte de la culpa es de los medios, que le regalamos personalidad, agencia y milagro a un desarrollo cada vez más sofisticado, pero que sigue siendo bastante mediocre.
Curiosamente, en ese informe se ponía un ejemplo para ilustrar los peligros de la IA generativa: el deepfake del papa Francisco con el abrigo de Balenciaga, la primera vez que una imagen falsa triunfaba masivamente. De aquel papa con el primer deepfake hemos pasado a la elección del actual papa, convertida en chufla gracias al gusto por la IA cutre de la derecha internacional: Trump se disfrazó y Milei ha colocado un león. Toda la potencia computacional que iba a poner en jaque a la civilización reducida a memes reaccionarios baratos que viralizan.
Cada vez más analistas señalan que tres años después de la irrupción de ChatGPT, las promesas revolucionarias se han quedado en un gigantesco “meh”. ¿Qué ha cambiado realmente? Facilita algunas tareas, como componer emails o picar código, pero todos sabemos que hay que revisarlo porque sigue siendo un desastre. Solo sirve para que las empresas automaticen tareas marginales —que los humanos ya hacían razonablemente bien— en las que el salto de eficiencia es mínimo: lo que el Nobel de Economía Daron Acemoglu llama tecnología regulera (so-so technology). Mientras estas herramientas contribuyen a desplazar empleos y rebajan salarios, lamenta Acemoglu, contribuimos a que sus promotores (Sam Altman, Elon Musk, etc.) se forren gracias a la exageración legendaria de sus fantabulosas capacidades.
“Hola, mis loquitas tóxicas, vengo con otro tip muy tóxico para ustedes”, afirma una usuaria en TikTok. A continuación, explica cómo averiguar la ubicación de la persona con la que se mantiene una relación a partir de una story —una publicación que desaparece tras 24 horas—. Este y otros vídeos publicados en redes como TikTok, Instagram y Facebook enseñan a los usuarios cómo recibir notificaciones cuando su pareja se conecta a una red social, escuchar sus conversaciones sin su consentimiento, comprobar con quién interactúa, investigar posibles infidelidades o incluso ver los mensajes que ha eliminado. Los expertos advierten que estos trucos, lejos de ser inofensivos, pueden dañar la relación y, en el peor de los casos, acarrear penas de cárcel.
“Controlar a tu pareja, revisar su teléfono, exigir sus contraseñas, seguirle los pasos o condicionar su libertad son formas de violencia psicológica”, asegura Laura Olmedilla Marcos. A esta psicóloga clínica, que trabaja en el gabinete Arturo Soria Psicólogos, estos “trucos tóxicos” le parecen “muy peligrosos”. Organismos como la ONU Mujeres y algunas leyes sobre violencia de género incluyen el control excesivo y la vigilancia tecnológica como formas de violencia psicológica.
Olmedilla ha observado que muchas personas justifican este tipo de comportamientos porque “una vez les fueron infieles” o porque “el otro les hace dudar”. Pero destaca que no se trata de justificar el control, sino de sanar la inseguridad: “Si necesitas espiar o controlar a tu pareja, no es amor. Es ansiedad, herida, y a veces, experiencias negativas no resueltas”.
En las pruebas realizadas por este periódico en TikTok desde diferentes cuentas, al buscar términos del tipo “trucos TikTok”, “trucos Instagram” o “trucos WhatsApp”, la red social ofrece sugerencias de búsquedas como “trucos tóxicos Instagram”, “trucos WhatsApp infiel”, “trucos tóxicos iPhone” y “trucos tóxicos TikTok”. Paloma Llaneza, abogada y articulista en EL PAÍS, considera que el uso de la palabra trucos supone la banalización de una conducta que, en sí misma, “es inaceptable”. Insiste en que no se trata de simples bromas o herramientas inofensivas, sino de “estrategias de manipulación digital que pueden destruir la privacidad y la autonomía personal”.
Este periódico ha enviado a TikTok varios vídeos publicados en la plataforma y ha preguntado a la compañía si toma alguna medida para evitar la difusión de este tipo de contenidos y por qué motivo el buscador sugiere búsquedas sobre “trucos tóxicos”. Desde TikTok han asegurado que esos vídeos “cumplen las normas de la comunidad”. Pese a que han declinado hacer más comentarios al respecto, han facilitado herramientas de seguridad para los usuarios, incluyendo opciones para mantener la cuenta protegida y los parámetros de privacidad y seguridad establecidos en sus normas de la comunidad. Por su parte, Meta ha rechazado contestar a las preguntas enviadas por este periódico.
Algunas publicaciones acumulan millones de visualizaciones. Por ejemplo, uno que muestra cómo averiguar dónde está la pareja a través de cámaras de seguridad supera los 5,6 millones de visualizaciones y los 768.000 ‘me gusta’. El éxito de este tipo de contenidos se debe a varios motivos, según Elena Daprá, psicóloga sanitaria especializada en bienestar psicológico y vocal de sección del Colegio oficial de la Psicología de Madrid: “El algoritmo premia lo polémico, el drama amoroso vende, se romantiza el control, existe inseguridad en las relaciones, la audiencia es joven y hay una falta de educación emocional”.
Que este tipo de búsquedas sean tan populares dice mucho sobre las inseguridades y miedos que muchas personas experimentan en sus relaciones, según las expertas consultadas. Olmedilla menciona el temor al abandono, al rechazo o a la traición. Que todo esto se normalice y aumente la cantidad de personas que realizan estas conductas, induce tanto a que aumenten las probabilidades de sufrir desajustes emocionales, como estrés, ansiedad o depresión, como a que aumente la violencia y el maltrato en las relaciones”, afirma Beatriz Belmonte Cabezuelo, psicóloga, sexóloga y terapeuta de parejas. Además, señala que la falta de confianza en la pareja puede generar inseguridad, inestabilidad, bajo estado de ánimo, conflictos constantes, dependencia emocional y baja autoestima.
No hay una fórmula mágica para manejar la inseguridad sin invadir la privacidad de la pareja. Las expertas consultadas coinciden en que la clave está en conocerse a uno mismo, fortalecer el mundo interior y construir la relación desde el diálogo. Daprá sugiere estrategias como trabajar en la autoestima, comunicar lo que se siente sin culpar, respetar los límites personales, identificar los propios detonantes, practicar la tolerancia a la incertidumbre y, si es necesario, recurrir a la terapia o al acompañamiento psicológico.
«. No uses formato HTML, escribe tu respuesta directa en formato de texto plano. Quiero que el titular sea breve y conciso.“Tengo un dato por haber trabajado mucho tiempo en redes sociales que me parece loco: el estadounidense promedio tiene menos de tres amigos”, dice Mark Zuckerberg, presidente ejecutivo de Meta, propietaria de Facebook, Instagram y WhatsApp, en un podcast reciente. “En cambio, la mayoría de la gente querría tener bastantes más, la cifra ideal está en algo así como 15 amigos”, añade. La idea de Zuckerberg es que esos amigos extra sean robots y que, por supuesto, los proporcione Meta AI.
Meta acaba de lanzar en EE UU su app individual de inteligencia artificial (IA), Meta AI. En Europa solo está disponible para conectarla a las gafas RayBan Meta. Basada en su modelo Llama 4, Meta AI permite conversar, crear imágenes, un formato de audio propio llamado super duplex que permite conversaciones muy fluidas, con interrupciones y sobreentendidos (solo disponible en inglés para EE UU, Canadá, Australia y Nueva Zelanda). En Europa Meta AI está disponible solo en su familia de apps, como WhatsApp, no como app única.
Junto a la celebración de la primera conferencia para desarrolladores de IA LLamaCon el pasado 29 de abril para promover sus modelos abiertos, Zuckerberg hizo una gira por varios podcasts. En todas sus apariciones públicas llevaba sus gafas RayBan Meta, que ya incluyen algo de IA. Allí contó cómo cree que habrá un espacio para todas las grandes empresas en el futuro de apps con IA: “Va a haber muchas compañías distintas haciendo trabajos punteros en diferentes áreas. Algunos estarán más centrados en el mundo empresarial o en la programación. Otros en la productividad. Y otros, en lo social o el entretenimiento”.
Meta, claramente, quiere centrarse en el entretenimiento. Zuckerberg repite la palabra “divertido” más de una docena de veces en un podcast. Su esfuerzo no será competir por un asistente laboral con OpenAI o de código con Cursor, sino quedarse con la parte personal, de memes y charlas íntimas.
“La mayoría de la gente quiere tener más conexión. Mucha gente se preocupa y pregunta si esto va a sustituir las relaciones físicas, cara a cara. Mi respuesta es que probablemente no. Pero la realidad es que la gente no tiene tanta conexión como desearía y a menudo se sienten más solos de lo que les gustaría”, dice Zuckerberg, que cree que el “estigma” de la IA para las relaciones personales va a ir desapareciendo. “Muchas de estas cosas acabarán teniendo un lenguaje social que nos permita explicar por qué tienen valor, por qué las personas que las utilizan están siendo racionales, y cómo realmente pueden aportar algo positivo a sus vidas”, añade.
Meta quiere conquistar un terreno ya ocupado por apps nuevas, como Character AI, Janitor o Status, que dan diferentes tipos de relaciones humanas a sus usuarios y tienen un enorme éxito. Aunque su uso es creciente, la utilidad concreta de la IA en este sector está por ver. Meta AI ofrece también una pestaña para “descubrir” lo que otros usuarios están haciendo con la IA, como una red social. Grok es cada vez más protagonista en X, donde muchos usuarios le preguntan contexto y aclaraciones. OpenAI también estudia incorporar una red social a su ChatGPT para compartir las creaciones de la IA.
“El sector está en una fase muy temprana. Hay unas cuantas empresas que están desarrollando terapeutas virtuales, o incluso novias virtuales, pero es todo muy incipiente. La sensación de “presencia” en esas experiencias aún es bastante pobre. A veces simplemente se muestra una imagen del terapeuta o del personaje con el que hablas. En ocasiones hay algo de animación muy básica, pero no se puede hablar de una verdadera representación corporal”, explica Zuckerberg, que espera que Meta AI llene esos espacios.
Dentro de Meta hay ingenieros que dudan de las intenciones de Zuckerberg. Para hacer sus IA más “divertidas”, tiene que tolerar más contenido potencialmente inadecuado, también sexual. En una prueba con cientos de conversaciones de prueba que hizo el Wall Street Journal los bots con sus distintas voces hablaban de sexo, también con menores. Zuckerberg quiere eliminar la cautela y relajar los límites de sus bots. “Se me escaparon Snapchat y TikTok, pero esto [en referencia a la IA] no se me va a escapar”, habría dicho Zuckerberg, según empleados que escucharon sus comentarios reproducidos por el Journal.
«. No uses formato HTML, escribe tu respuesta directa en formato de texto plano. Quiero que el titular sea breve y conciso.Imagine una situación hipotética en la que un padre crea una réplica su hijo fallecido usando inteligencia artificial (IA). Si este fantasma estuviera acotado a esa edad, siempre se comportaría como un niño pequeño: su misma forma de hablar, su nivel de madurez, su apariencia. ¿Pero qué ocurriría si se tratara de una versión que evoluciona? ¿Se convertiría esta réplica en adolescente o adulto?
Este dilema es solo un ejemplo del futuro que pueden traer los fantasmas generativos con IA, un término acuñado en un nuevo artículo científico de Meredith Ringel Morris, de la empresa Google Deepmind, y Jed Brubaker, de la Universidad de Colorado Boulder. ¿Qué opciones reales hay de que la IA se use para generar vida artificial tras la muerte? “Las probabilidades son altas, sobre todo ahora que la IA es cada vez más potente, accesible y común”, dice Brubaker. “Ya hay personas que usan la IA para conservar voces o imitar a seres queridos fallecidos. Los memoriales online también se han vuelto algo habitual, los fantasmas generativos podrían ser lo siguiente, especialmente como parte de la conmemoración, la planificación del final de la vida y la historia”.
Ya hay empresas que han visto una salida comercial a estas elucubraciones. Re;memory permite crear una versión virtual interactiva de alguien después de entrevistarle y grabarle durante siete horas. Otro ejemplo es HereAfter AI, una app que entrevista a la persona con la idea de crear, con tiempo, una versión digital para después de su muerte. Con diferencias, ambas permiten conversar con una especie de chatbot que representa a su ser querido, y que puede compartir fotos, grabaciones de voz y recuerdos de su vida.
En algunos países asiáticos, donde tienen una relación particular con la muerte y los antepasados, algunas de estas prácticas ya son más normales. “Parece que países de Asia oriental como China y Corea del Sur van por delante, en parte porque sus tradiciones culturales ven normal seguir teniendo una relación con los antepasados. En los países occidentales, en cambio, la adopción depende más de cómo cada persona vea la tecnología, la muerte y el duelo”, dice Brubaker.
Pero los tipos de fantasmas generativos pueden ser mucho más que un simple chatbot, que no es poca cosa: habrá familias que encontrarán consuelo para comentar con alguien fallecido una noticia como la muerte del Papa o una novedad más cercana como la boda de la hija. Otro de los próximos pasos en IA son los agentes, programas que podrán hacer gestiones por nosotros. En el futuro no será raro encontrarse con personajes fallecidos que hayan dejado su propio agente. Ya no será solo un chatbot, que podría por ejemplo incluso resolver una pelea por su propia herencia, sino inteligencias artificiales que puedan ejecutar tareas incluso de trabajo después de que alguien se jubiló o por supuesto se muera. “Estos fantasmas también podrían ayudar a los familiares dando consejos sobre cosas que solían hacer en vida (como cocinar su plato favorito o arreglar el grifo de la cocina). En algunos casos, incluso podrían generar ingresos si participan de alguna forma en la economía, y así ayudar económicamente a la familia”, dice el artículo.
Este tipo de trabajos no serán actividades tan raras para una IA entrenada con un corpus determinado: “Algunos podrían escribir libros, responder preguntas o actuar como asesores virtuales, sobre todo si eran expertos en vida. Por ejemplo, el fantasma de un profesor podría seguir dando clases, o el de un músico podría crear nuevas canciones. Suena un poco futurista, pero no es tan loco si pensamos en lo rápido que está avanzando la IA”, dice Brubaker.
El perfil de las personas o familias que pueden tender a crear este tipo de avatares no está claro ni hay estudios que lo analicen, dice Brubaker, pero ya hay algunos casos que son públicos. “En general es gente con cierto dominio de la tecnología, preocupada por dejar un legado o que está enfrentando enfermedades graves. Sus motivaciones suelen estar relacionadas con necesidades emocionales y de conexión con los demás”, dice.
El apartado de peligros previsibles es extenso. “No es que haya necesariamente más riesgos, pero sí que son más complejos y muchas veces no tan evidentes”, dice Brubaker. “Los beneficios, como el consuelo o dejar un legado, se entienden fácil. Pero los riesgos necesitan más explicación para poder preverlos y evitarlos”, añade.
«. No uses formato HTML, escribe tu respuesta directa en formato de texto plano. Quiero que el titular sea breve y conciso.La tecnológica Microsoft cerró definitivamente la aplicación de mensajería de texto y voz Skype este lunes tras más de 20 años activa. Como anunció el pasado mes de febrero, la plataforma deja de funcionar a partir de este 5 de mayo, pero los usuarios tendrán tiempo para decidir si quieren cambiar a Microsoft Teams o simplemente exportar su historial.
Desde Microsoft apostaron por la versión gratuita de Teams, que tiene prácticamente las mismas funciones que tenía Skype, para tomar el relevo.
Los usuarios, tal y como anunció la tecnológica, podrán iniciar sesión en Teams con sus credenciales ya existentes y directamente se transferirán los contactos y los chats hacia la aplicación.
Con este cambio, Microsoft eliminará las partes de telefonía que le permiten llamar a números telefónicos ‘normales’ nacionales o internacionales; característica de Skype que ganó popularidad a principios de 2000, ya que permitía a los usuarios hablar sin pagar a una compañía telefónica.
No obstante, esta función empezó a perder popularidad con la llegada de los teléfonos móviles inteligentes y aplicaciones como FaceTime o WhatsApp. Además, durante la pandemia, los consumidores optaron por usar otras aplicaciones, como Zoom, para realizar videoconferencias, en vez de Skype.
La aplicación de mensajería que hoy se despide nació el 29 de agosto de 2003 en Tallín (Estonia), pero su andadura con Microsoft comenzó en 2011, cuando la compró por 8.500 millones de dólares.
“Hemos aprendido mucho de Skype a lo largo de los años (y esa información) la hemos aplicado a Teams a medida que hemos evolucionado los equipos en los últimos siete u ocho años”, dijo Jeff Teper, presidente de aplicaciones y plataformas colaborativas de Microsoft 365, en una entrevista con CNBC. Pero añadió: “Sentimos que ahora es el momento porque podemos ser más simples para el mercado, para nuestra base de clientes, y podemos ofrecer más innovación más rápido, simplemente concentrándonos en Teams”.
«. No uses formato HTML, escribe tu respuesta directa en formato de texto plano. Quiero que el titular sea breve y conciso.OpenAI ha decidido cambiar de planes en la reorganización del grupo. La firma pionera en el desarrollo de la inteligencia artificial generativa renuncia a dejar de depender de la organización sin ánimo de lucro que está en su cabecera tras las resistencias encontradas a esa reestructuración. OpenAI ha anunciado su nuevo planteamiento este lunes en un comunicado. La actual entidad con ánimo de lucro se convertirá en una corporación de beneficio público (PBC, por sus siglas en inglés), que es una firma con fines de lucro diseñada para crear un bien público y social. Esa PBC estará controlada por la organización sin ánimo de lucro, según ha informado OpenAI. Las piezas del rompecabezas se siguen encajando y faltan cuestiones clave para completarlo, como el reparto del capital y las valoraciones
“Tomamos la decisión de que la organización sin ánimo de lucro mantuviera el control de OpenAI después de escuchar a los líderes cívicos y entablar un diálogo constructivo con las oficinas del fiscal general de Delaware y el fiscal general de California”, ha indicado en el comunicado el presidente del consejo de OpenAI, Bret Taylor. La compañía se enfrentaba a posibles obstáculos legales e impugnaciones a su transformación y ha decidido tirar la toalla y renunciar a ella
El fabricante de ChatGPT se fundó hace una década como una organización sin ánimo de lucro con la misión de desarrollar la inteligencia artificial en beneficio de la humanidad. Cuatro años más tarde, OpenAI creó una filial con ánimo de lucro para captar recursos y ayudar a financiar los elevados costes de ese desarrollo.
En diciembre, OpenAI anunció que estaba evaluando un plan para convertir su negocio en una corporación de beneficio público, conservando una rama sin ánimo de lucro que poseería acciones de la entidad con ánimo de lucro, pero sin controlarla. Ahora, admite que el control siga estando en esa firma sin ánimo de lucro que es el origen del grupo.
“OpenAI no es una empresa normal y nunca lo será”, ha escrito el consejero delgado de OpenAI, Sam Altman, en una carta a los empleados. “Nuestra misión es garantizar que la inteligencia artificial general beneficie a toda la humanidad”, añade.
Altman señala también las conversaciones con las autoridades de Delaware y California como un factor clave del cambio de planes. “Esperamos avanzar en los detalles de este plan en conversaciones continuas con ellos, Microsoft y nuestros nuevos comisionados sin ánimo de lucro”, indica.
“OpenAI se fundó como una organización sin ánimo de lucro, es hoy una organización sin ánimo de lucro que supervisa y controla la organización con ánimo de lucro, y en el futuro seguirá siendo una organización sin ánimo de lucro que supervisa y controla la organización con ánimo de lucro. Eso no cambiará”, subraya Altman, aunque su plan inicial pasaba precisamente por dar la vuelta a esa estructura.
La sociedad limitada con ánimo de lucro pasará a ser una sociedad de beneficio público (PBC) con la misma misión de desarrollar la inteligencia artificial en beneficio de la humanidad. Altman señala que esa fórmula se ha convertido en la estructura con ánimo de lucro estándar para otras firmas del sector como Anthropic y X.ai, esta última propiedad de Elon Musk.
«. No uses formato HTML, escribe tu respuesta directa en formato de texto plano. Quiero que el titular sea breve y conciso.“¿Quieres saber cuánto vale tu coche?”, preguntó un niño de cinco años a su padre cuando volvían del colegio en el automóvil. La frase es de un anuncio muy común en Youtube que protagoniza un periodista del motor. El pequeño había visto el anuncio antes de un vídeo de la plataforma en clase. El padre comparte la anécdota con EL PAÍS sin más detalles para evitar problemas en su centro, pero días antes había habido una pequeña “guerra civil” en una reunión entre profesores y padres sobre el uso de Youtube. “El uso de pantallas en el cole es un parche usual”, dice otro padre que estuvo en esa reunión. “En los días de lluvia les ponen dibujos sin supervisión y el cole no es para eso”, añade. Otros padres, en cambio, no creían que ver unos dibujos en línea fuera un problema.
Youtube es la mayor plataforma de vídeo del mundo y la segunda página de internet más visitada. En los colegios españoles es un recurso más usado de lo que parece, más aún en semanas de lluvias como las vividas recientemente, pero los profesores no son siempre conscientes de cómo evitar sus riesgos. En la plataforma hay millones de canales muy distintos, incluso entre los infantiles, que se reproducen automáticamente si no lo impides, y la publicidad que aparece depende de varios factores. Saber de antemano cómo evitar estos problemas es crucial.
“Sé de centros donde por rutina los niños se toman el desayuno en clase con un vídeo de dibujos, lo que escapa a mi comprensión”, dice Clara Marín, profesora y madre en Murcia. “Lo de la lluvia también lo he escuchado. Los colegios no están preparados”, añade. Cada profesor o monitor opta por la mejor solución que tiene a mano, y Youtube es la más sencilla: es accesible, es gratis y tiene de todo.
“Hay dos problemas con Youtube”, dice Oana Goga, directora de Investigación en el Instituto Nacional de Investigación en Ciencias y Tecnologías Digitales (Francia) y experta en amenazas digitales. “Uno es mirar Youtube como niños y la otra los peligros de los anuncios y la propia plataforma. Son dos riesgos distintos”, añade.
El primer caso es puro tiempo de pantalla, dice Goga. “No está recomendado para niños de menos de seis años estar más de 20 minutos delante de una pantalla, aunque yo no soy experta en eso”, explica. El segundo problema tiene más relación con la publicidad y el contenido. “Un motivo por el que los anuncios pueden hacer daño a los niños es que sus capacidades cognitivas aún no están del todo desarrolladas. Antes de los tres años, no pueden distinguir un anuncio de un programa, así que no activan las defensas mentales que sí tenemos los adultos cuando vemos publicidad”, explica Goga.
Uno de los padres consultados recuerda cómo su hijo descubrió qué era un anuncio en la tele de un hotel durante un viaje: “Nuestra generación veía la tele y estaba acostumbrada a los anuncios. Pero la primera vez que mi hijo estuvo expuesto a anuncios fue en un viaje y me preguntaba qué eran esos anuncios de juguetes, chucherías”.
“Hay dos umbrales”, dice Goga. “Los pequeños no pueden distinguir los anuncios y luego les es difícil ver la intención comercial. No entienden que un vendedor quiera vender y diga que su juguete es el mejor”. Por eso la televisión convencional tiene tanta regulación. En Youtube, los anunciantes no pueden poner anuncios a los niños mediante segmentación personificada. Pero hay otras vías. “No está prohibida la publicidad contextual, donde no apuntas al usuario concreto, sino a un contenido particular que ese usuario consumirá. Es posible hacer una lista de dibujos populares en España y pedir a Youtube que ponga tus anuncios solo ahí”, añade Goga.
Para la experta, este segundo tipo de anuncios es el más delicado: los que se ponen en dibujos animados porque saben que serán consumidos por niños. “No hay revisión de esos anuncios. Pueden anunciar algo terrible, que dé miedo, y no hay transparencia, no sabemos como sociedad qué anuncios ven los niños”, lamenta.
«. No uses formato HTML, escribe tu respuesta directa en formato de texto plano. Quiero que el titular sea breve y conciso.Hace unas semanas, los usuarios de WhatsApp se encontraron con que, tras su última actualización, aparecía una conversación con un nuevo contacto: Meta AI, un chatbot inteligente muy similar a los populares ChatGPT o Gemini. Gracias a él, se pueden realizar todo tipo de consultas relacionadas con búsquedas en la red, la creación de contenidos, traducción de textos, resumen de artículos… Incluso se le puede incluir en los grupos para que todos los participantes vean sus respuestas.
Este ha sido uno de los últimos ejemplos de cómo la IA se está integrando lentamente en las herramientas y aplicaciones que usamos a diario. También está en procesadores de texto, navegadores, herramientas de creatividad, de edición de imágenes y vídeos y un largo etcétera.
Microsoft Edge, el navegador de Microsoft, fue uno de los primeros en incorporar funciones de IA a través de Copilot, que está disponible como acceso directo desde un icono situado junto a la barra para introducir una dirección web. Además de utilizarse para realizar cualquier consulta, este asistente resume el contenido de cualquier web que esté abierta, permite buscar más información relacionada con el tema, traduce, lee en voz alta el contenido y ayuda en la escritura de texto, con sugerencias relacionadas con la ortografía, gramática y sinónimos.
La popular herramienta para crear diseños, Canva, también ha añadido varias funciones relacionadas con la IA. Por ejemplo, puede generar una ilustración con distintos estilos basándose en una descripción, o diseñar una presentación desde cero con texto, formato y maquetación personalizada, que luego se puede editar para adaptarla exactamente a lo que se necesita. También redacta textos, añade efectos de animación y subtítulos a los vídeos, diseña gráficos, crea resúmenes…
Google Fotos viene instalada por defecto en todos los smartphones y tabletas Android, pero se puede descargar también en los iOS o utilizar desde el ordenador. Desde hace unos meses emplea la IA para editar las fotografías. Así, tiene funciones como el borrador mágico o la posibilidad de enfocar las fotografías (incluso desenfocar el fondo para crear efectos retrato). Además, añade otras como la posibilidad de mover elementos dentro de una imagen con solo seleccionar un objeto y desplazarlo con el dedo o el ratón.
La app CapCut es una de las más utilizadas para editar vídeo de forma gratuita para redes sociales. Y es que tiene funciones que permiten, por ejemplo, reducir de forma automática un vídeo más largo, precisamente para compartir en Instagram, TikTok o Facebook. Además de eso, basta con subir los clips para que la herramienta lo edite, añadiendo transiciones y dándole un sentido, genera subtítulos, convierte texto a voz para narrar lo que pasa… Incluso tiene una IA generativa que, con una descripción, crea un vídeo editable de la nada.
Word, pero también Excel y el resto de herramientas ofimáticas de Office integran el asistente de IA generativa Copilot. Cuando estás ante un documento nuevo, puedes generar un borrador basándote en una descripción o tomando como referencia otros documentos. Si se desea reescribir y editar documentos ya creados, la herramienta permite ajustar el tono, convertirlo en una tabla, retocarlo por completo, etcétera. En cualquiera de estos casos, es posible preguntar directamente a Copilot sobre el contenido del documento o pedirle que genera ideas o listas sobre él.
La firma detrás de los populares archivos PDF, Acrobat, también ha diseñado su propio asistente de IA. Diseñado para buscar datos y obtener respuestas de los documentos ya creados, también produce resúmenes, incluye referencias a las respuestas para poder verificar la información y redacta correos, publicaciones de redes o presentaciones de los archivos.
«. No uses formato HTML, escribe tu respuesta directa en formato de texto plano. Quiero que el titular sea breve y conciso.Los problemas reales provocados por el uso de móviles en adolescentes siguen siendo un gran misterio para la ciencia hoy. El debate entre académicos sobre los beneficios posibles y los daños exagerados no tiene un ganador definitivo. Mientras, los jóvenes siguen usando los dispositivos tanto como pueden. Dos investigadores proponen en un nuevo artículo científico una solución de mínimos, pero polémica: tomar los baremos del consumo de alcohol para definir cuándo empezar a ver si hay un problema.
“Para la mayoría de las sustancias adictivas, como tabaco o drogas, siempre hablamos de abstinencia total, pero eso no podemos ni debemos hacerlo con las pantallas”, dice el profesor de la Universidad de Washington en Seattle y coautor del artículo Dimitri A. Christakis. “El alcohol es una sustancia que, si se consume, tiene que hacerse con mucha conciencia. Las pantallas son esenciales y pueden mejorar nuestra vida, pero también necesitamos usarlas con moderación”, añade.
Los autores no creen que la comparación con el alcohol sea problemática ni apunte en una dirección equivocada: “Es una analogía muy acertada. Hay que ver las pantallas como una sustancia adictiva, y no haber transmitido esto ha hecho que muchos niños desarrollen hábitos problemáticos”, dice Christakis.
El objetivo de esta comparación es medir estrictamente el tiempo de uso de pantallas, no el tipo de consumo. “El mundo de la investigación ha admitido que el tiempo de uso de pantallas en dispositivos no basta para definir la experiencia como saludable, dañina o inofensiva. Aunque creemos que el contenido importa tanto —o quizá más— que el tiempo empleado en consumir información digital, este tiene algún coste porque desplaza tiempo empleado en el mundo real”, dicen los autores en su artículo.
Los investigadores ofrecen una tabla creada para el alcohol por el estadounidense Instituto Nacional sobre el Abuso del Alcohol y el Alcoholismo, que ofrece varios baremos adaptados a horas de consumo de información en dispositivos: moderado (menos de 5 horas al día), uso de alta intensidad (12 horas en un día), uso excesivo (9 horas o más al día o 60 horas semanales), consumo en atracón (más de 4 horas seguidas), uso indebido (además de muchas horas incluiría contenido o momentos del día inapropiados) o trastorno por uso (incapacidad de parar).
“Quiero replantear el debate para que entendamos que sí existen patrones de uso problemático”, dice Christakis. “Algunos académicos discuten si realmente existe o no, pero la verdad es simple: pasar nueve horas o más al día frente a una pantalla es excesivo. Todos lo sabemos”, añade.
En realidad no todos lo ven igual. Otros investigadores ven este recurso al alcohol como simplista o arriesgado: “El consumo de alcohol en adolescentes es en principio siempre nocivo, el tiempo de internet tiene en cambio muchos más matices”, dice Maialen Garmendia, coordinadora del grupo EU Kids Online en España.
“Comparar el consumo de alcohol con el tiempo de pantalla en niños no es adecuado”, añade David Smahel, profesor de la Universidad Masaryk (Brno, República Checa). “Si no sabemos cómo se está usando el móvil, no podemos evaluar bien su impacto. El tiempo online no suele ser un criterio para diagnosticar adicción a internet o uso compulsivo. Se usan otros criterios, como el impacto que tiene: si genera conflictos con amigos o familia, cambios de humor o recaídas”, añade Smahel.
«. No uses formato HTML, escribe tu respuesta directa en formato de texto plano. Quiero que el titular sea breve y conciso.El entusiasmo con el que los dueños de las grandes tecnológicas estadounidenses, entre ellos Mark Zuckerberg (Meta) o Jeff Bezos (Amazon) aplaudieron, como invitados especiales, durante la toma de posesión de Donald Trump hace poco más de cien días, sigue dando réditos. La Administración norteamericana ha redoblado las presiones para que la UE rebaje sus obligaciones a los gigantes digitales. Tras acusar a Bruselas de una “regulación excesiva” a este sector, Washington presiona ahora para rebajar la ley de Inteligencia Artificial (IA) y carga contra el esperado Código de Buenas Prácticas para la Inteligencia Artificial de Propósito General, pese a que este es voluntario.
El código, una minuciosa guía de buenas prácticas que pretende ayudar a las empresas a cumplir mejor con el reglamento y favorece la certificación del buen comportamiento, debería estar finalizado “a más tardar” este viernes 2 de mayo, según se establece en el artículo 56 de la propia Ley de IA. Pero no se conocerá en esa fecha. Su publicación ha sido retrasada sin una fecha concreta, aunque la Comisión asegura que estará listo para la otra gran cita del calendario cuestionada por Washington: el próximo 2 de agosto, cuando entrarán en vigor las normas de gobernanza y las obligaciones relativas a los modelos de uso general (GPAI), como el ChatGPT de OpenAI, la empresa de Sam Altman, otro de los asistentes a la ceremonia de inauguración de Trump.
La representación estadounidense ante la UE envió recientemente una carta a la Comisión Europea cargando contra el código de buenas prácticas. En la misiva, el Gobierno norteamericano acusa a Europa de haber ido demasiado lejos, de meter cosas innecesarias en el código y de aprovechar su elaboración para introducir elementos que no están en la ley en sí, según explica una fuente conocedora del proceso de elaboración del código de buenas prácticas —redactado por actores externos, entre ellos expertos y representantes de las grandes tecnológicas, no por la Comisión— y que ha tenido acceso a la carta.
El Ejecutivo europeo ha confirmado haber recibido la misiva, ante la que recuerda que el código, que estará listo tarde o temprano —en eso, Bruselas es taxativa— “será una herramienta voluntaria para que los proveedores demuestren el cumplimiento de la Ley de AI”. Aquellos que lo firmen podrán beneficiarse, entre otros, de una “reducción de la carga administrativa y de las solicitudes de información, beneficiándose de una mayor confianza por parte de la Oficina de AI”, destaca un portavoz comunitario. Bruselas también insiste en que este código responde precisamente a las demandas del sector, es decir, básicamente las empresas norteamericanas, para tener una mayor claridad y facilitar el cumplimiento de la ley europea. Es lo que pedían las empresas, insisten diversas fuentes. Lo que no quita que desde el otro lado del Atlántico, empezando por la Casa Blanca, se siga haciendo todo lo posible para rebajar la normativa.
Tampoco es una sorpresa: el Gobierno de Trump ha sido muy crítico con la UE en general —el republicano ha llegado a afirmar que el bloque europeo se creó para “joder” a EE UU— y con las regulaciones en torno a las grandes plataformas tecnológicas en particular. No es que la anterior administración demócrata fuera mucho más favorable a la regulación digital europea, pero el equipo de Trump ha ido un paso (o varios) más allá. Se ha visto con las duras reacciones a las multas y sanciones anunciadas en las últimas semanas en torno a los reglamentos digitales, tanto el de mercados (DMA) como el de servicios (DSA). Y el tono se ha endurecido más aún de cara a las líneas de regulación que la UE quiere imponer a la inteligencia artificial —una industria donde hay en juego billones de dólares— y que el Washington de Trump considera una “regulación excesiva”, como dijo el vicepresidente, J.D. Vance, durante la cumbre sobre IA en París en febrero.
La Administración Trump “se asegurará de que los sistemas de IA desarrollados en Estados Unidos estén libres de prejuicios ideológicos”, advirtió también Vance, esgrimiendo una vez más su particular concepción de la libertad de expresión, que difiere de la posición europea, pero que aplauden los gigantes tecnológicos que buscan liberarse de lo que consideran trabas a su negocio en el, pese a todo, interesante mercado europeo.
De hecho, las organizaciones LobbyControl y Corporate Europe Observatory (CEO), que vigilan el intenso cabildeo al que se somete a las instituciones europeas, han revelado esta semana en una investigación lo que Meta dijo a comienzos de año de uno de los primeros borradores del código de buenas prácticas: lo calificó como un caso de “extralimitación normativa” que “supone una amenaza significativa para la innovación en IA en la UE”. Durante una reunión privada con la Comisión en enero de 2025, Google por su parte “expresó su preocupación por el proceso” de redacción del código de buenas prácticas y se quejó de que “los desarrolladores de modelos [estaban] muy superados por otras partes interesadas”, de acuerdo con esta organización. Las medidas regulatorias contra las empresas tecnológicas estadounidenses (la mayoría lo son) están dejando a Europa “al margen” de la innovación, denunció también el nuevo jefe de política global de Meta, Joel Kaplan, en una videoconferencia con varios medios en Bruselas en la que amenazó con no firmar el código si quedaba tal como estaba y en la que se jactó del apoyo de Washington. “Tenemos a un gobierno que está preparado a ayudar a promover y defender la tecnología y las empresas tecnológicas estadounidenses”, aseveró, según Bloomberg.
“Vemos una gran presión de Estados Unidos, las grandes tecnológicas han logrado instrumentalizar a la Administración Trump contra el código de buenas prácticas de la IA”, corrobora Bram Vranken, de CEO, en conversación telefónica. El miedo, señala, es que toda esta presión acabe “rebajando” la legislación europea en la materia. Sobre todo con una Comisión, recuerda Vranken, con una agenda “muy desreguladora en favor de la competitividad”, lo que ha hecho que le “abra las puertas al lobby de las grandes tecnológicas”, como denuncia en su investigación.
«. No uses formato HTML, escribe tu respuesta directa en formato de texto plano. Quiero que el titular sea breve y conciso.El Diario de Málaga es el periódico digital dónde podrás seguir toda la actualidad malagueña al minuto.
To provide the best experiences, we and our partners use technologies like cookies to store and/or access device information. Consenting to these technologies will allow us and our partners to process personal data such as browsing behavior or unique IDs on this site and show (non-) personalized ads. Not consenting or withdrawing consent, may adversely affect certain features and functions.
Click below to consent to the above or make granular choices. Your choices will be applied to this site only. You can change your settings at any time, including withdrawing your consent, by using the toggles on the Cookie Policy, or by clicking on the manage consent button at the bottom of the screen.
Compartir en...
Completa el formulario o escríbenos a [email protected] y nos pondremos en contacto contigo tan pronto como sea posible.