Los grandes desarrolladores de modelos de inteligencia artificial (IA) generativa, como OpenAI, Microsoft o Google, tienen claro que el futuro de la industria pasa por los llamados agentes. Se trata de herramientas basadas en la misma tecnología que ChatGPT o Gemini, pero con capacidad para tomar decisiones y realizar acciones en nombre del usuario, como comprar billetes de avión. Para llevar a cabo esas tareas, los agentes de IA deben relacionarse entre sí. Un estudio ha demostrado que los agentes de grandes modelos de lenguaje (LLM, por sus siglas inglesas) pueden desarrollar de forma autónoma convenciones sociales o lingüísticas sin haber sido programados para ello, lo que les ayuda a coordinarse y trabajar de forma conjunta.
Los autores del trabajo, publicado este miércoles en la revista Science Advances, advierten de que sus resultados no deben interpretarse como que los agentes de IA puedan organizarse entre sí, porque no pueden. “Nuestro estudio demuestra que las poblaciones de agentes pueden generar sesgos colectivos que no se detectan mirando a los agentes uno a uno, y que estos, además, son vulnerables a dinámicas de masa crítica, donde pequeñas minorías comprometidas pueden imponer normas al resto”, apunta Andrea Baronchelli, profesor del departamento de Matemáticas del City St George’s University of London y coautor del artículo.
Para Baronchelli y sus colegas, el hecho de que los agentes sean capaces de establecer por sí mismos normas no escritas de funcionamiento puede ayudar en un futuro a desarrollar sistemas de IA que se alineen con valores humanos y objetivos sociales. Se presupone que, si se logran entender los mecanismos por los que los agentes de IA popularizan una opción o generan una convención, entonces se podrán fomentar artificialmente. “Nuestro trabajo también destaca los desafíos éticos relacionados con la propagación de sesgos en los LLM”, escriben los autores. “A pesar de su rápida adopción, estos modelos representan riesgos serios, ya que los vastos datos no filtrados de internet utilizados para entrenarlos pueden reforzar y amplificar sesgos perjudiciales, afectando de manera desproporcionada a las comunidades marginadas”.
Las convenciones sociales, entendidas como “los patrones no escritos de comportamiento que son compartidos por un colectivo”, determinan el proceder de los individuos y la forma en que construyen sus expectativas. Estos patrones varían entre sociedades y están presentes en los juicios morales o en el lenguaje.
Varios estudios recientes demuestran que las convenciones sociales pueden surgir de forma espontánea, sin una intervención externa o centralizada, como resultado del esfuerzo de varios individuos para entenderse entre sí y coordinarse localmente. Baronchelli y sus compañeros han querido comprobar si este proceso se replica también entre agentes de IA. ¿Pueden generarse convenciones sociales de forma espontánea, sin prompting o instrucciones explícitas, entre agentes de IA?
Su conclusión es que sí. “Esta pregunta es fundamental para predecir y gestionar el comportamiento de la IA en aplicaciones del mundo real, dada la proliferación de grandes modelos de lenguaje que utilizan el lenguaje natural para interactuar entre sí y con los humanos”, afirman los autores del trabajo. “Responderla también es un requisito previo para garantizar que los sistemas de IA se comporten de manera alineada con los valores humanos y los objetivos sociales”.
Otra de las cuestiones analizadas en el estudio es cómo afectan los sesgos individuales, entendidos como preferencias estadísticas por una opción frente a otra equivalente, en la emergencia de convenciones universales. También se explora cuál es el proceso por el que un conjunto de actores minoritarios puede ejercer una influencia desproporcionada en el proceso, convirtiéndose en “masa crítica”. Investigar esas dinámicas entre agentes de LLM puede ayudar a anticiparlas y, potencialmente, “controlar el desarrollo de normas beneficiosas en sistemas de IA, así como mitigar los riesgos de normas perjudiciales”, sostienen.
El estudio llega a sus conclusiones tras una serie de experimentos basados en el modelo del juego de los nombres (naming game), en el cual los agentes, con el objetivo de coordinarse en interacciones por pares, acumulan una memoria de jugadas pasadas que luego utilizan para “adivinar” las palabras que usarán sus próximos compañeros. Baronchelli y sus colegas han apostado por este juego porque es el que se ha usado en otros experimentos (con participantes humanos) que han aportado las primeras pruebas empíricas de la emergencia espontánea de convenciones lingüísticas compartidas.
«. No uses formato HTML, escribe tu respuesta directa en formato de texto plano. Quiero que el titular sea breve y conciso.Este fin de semana, servicios centrales de internet como la red social X, la pasarela de pago Redsys o la plataforma de videojuegos Steam sufrieron cortes. La causa no fue un oscuro problema de servidores o conexiones, sino el bloqueo semanal en internet que LaLiga ordena para protegerse del pirateo del fútbol. Desde febrero, cientos de miles de páginas web se han visto afectadas: no siempre las mismas, no siempre la misma cantidad de tiempo ni con la misma frecuencia. Hay páginas de todo tipo: periódicos, apps, revistas, restaurantes y en el fondo miles de ciudadanos que ven limitados algunos de sus derechos fundamentales durante unas horas. “Afecta a la libertad de información, la libertad de expresión, la libertad de empresa”, dice Ofelia Tejerina, abogada y presidenta de la Asociación de Internautas. Laliga, por su parte, asegura que no hace bloqueos indiscriminados de páginas web.
El Gobierno no tiene nada que decir: “Respetamos las decisiones judiciales”, dicen fuentes del Ministerio para la Transformación Digital. Este domingo, con el clásico entre Barcelona y el Real Madrid el impacto fue mayor. Pero durante tres meses el runrún en redes no ha parado: cada fin de semana hay nuevas quejas, nuevos afectados y más gente pendiente.
“Los usuarios están más sensibilizados y los que antes lo vinculaban a un problema de internet, ahora ya saben relacionarlo con los bloqueos, hay más visibilidad”, dice Jaume Pons, un ingeniero de sistemas que sigue los bloqueos de LaLiga desde el inicio y que estima que hay 3,5 millones de páginas potencialmente afectadas: clubes deportivos, ayuntamientos, marcas que patrocinan equipos.
“Puede que nuestros humildes 2.000-4.000 visitantes diarios no supongan nada para LaLiga o para Movistar”, dice David Laguillo, director de Cantabria Diario. “Pero desde esta humildad lo principal para nosotros es que durante los bloqueos no podemos atender a nuestros lectores con el compromiso diario con la información de Cantabria, sean muchos o pocos”, añade.
“Mi negocio es una plataforma de análisis de pádel”, dice Marcos Sabarís, creador de la app Padelio. “Y me afecta, ya que España es el país con más jugadores de pádel. Dependiendo del operador, algunos hacen que mi página web no cargue, lo que da al potencial cliente una imagen poco seria, pero es que hay otros que muestran un aviso diciendo que la web a la que intentan acceder está intervenida por una orden judicial, imagina qué imagen le queda a un potencial cliente”, añade.
LaLiga y Telefónica tienen una sentencia de un juzgado mercantil de Barcelona que les da la razón. Nadie vinculado a esta polémica niega el derecho de LaLiga a defenderse ante la piratería. “La idea puede ser buena porque una parte de la legislación permite el bloqueo de webs”, dice Tejerina. El problema es el cómo: “Yo tengo por ejemplo permiso para pintar esta fachada. Y tú me dices: ‘Vale, ponemos andamios, seguridad para los obreros, pinceles, brochas’. Y yo respondo: ‘No, no, nos han dicho que pintemos. Vamos a pintar a cañonazos’. Y me da igual que quede todo pintado”, explica Tejerina.
Un grupo de afectados intentó anular esa sentencia, pero el juez no vio claros los daños a terceros y la mantuvo. “Se están aprovechando del absoluto desconocimiento del juez de tecnología. Se están aprovechando de que la gente no tiene dinero para reclamar esos daños. Y se están aprovechando de porque yo lo valgo, porque es lo que están haciendo”, añade Tejerina.
Es un problema difícil de entender. La principal batalla de LaLiga es con una compañía estadounidense enorme llamada Cloudflare. “No hacemos bloqueos indiscriminados. Se mira la IP, la url y la evidencia del contenido ilegal y se comunica y hay una serie de compañías que sí colaboran”, dicen fuentes de LaLiga. “Cloudflare no hace nada. Son una empresa enorme, cotizada. ¿Cómo puede ser que haya empresas más pequeñas que lo hagan? Es una cuestión de voluntad. TikTok y Telegram retiran contenido en tiempo real, como casi todas las redes. Lo que no puede ser es que haya un territorio sin ley donde unas empresas decidan no hacer nada. Y los piratas lo saben. Son sus proveedores de refugio”, añade.
«. No uses formato HTML, escribe tu respuesta directa en formato de texto plano. Quiero que el titular sea breve y conciso.“Compran bases de datos, buscan un nombre, ven que busca ropa en Shein, que hay información del hospital, que tiene párkinson y otra enfermedad y con eso van haciendo un perfilado”, explica un Guardia Civil encargado de una operación reciente en la que, junto a la Policía Nacional, desarticularon una organización que estafó al menos 19 millones de euros. Los delincuentes saben que no todos los ciudadanos tienen las mismas opciones de caer en estafas de inversión en criptomonedas. Buscan maneras de afinar y, así, dar con víctimas más propicias para caer en sus campañas de publicidad falsa.
“No tenemos víctimas atípicas, sino típicas: hay factores psicológicos que nos hacen más vulnerables y, luego, juegan con tus problemas personales”, dicen fuentes de la Guardia Civil. “Empezamos a ver mucha gente de 80 años, 70, 65, muchísimos jubilados. Obviamente con dinero y, también, gente con enfermedades, depresión, muchos con circunstancias como haber perdido familiares. Así igual entran más fácilmente en ofertas de inversión sin valorar qué hay detrás”, añade.
¿Cómo logran estos grupos vincular estos detalles privados de víctimas propicias con sus anuncios, hechos con IA para simular que personajes públicos como Pedro Sánchez, Pablo Motos o Antonio Resines recomiendan ciertas inversiones? Todo está relacionado con el oscuro mercadeo online de nuestros datos.
En el caso de la organización de ciberestafas recientemente desarticulada, la Guardia Civil apunta en primer lugar a la compra de bases de datos que cuestan decenas de miles de euros y que reúnen todo tipo de información de millones de usuarios. En ellas pueden encontrarse patrones que indican si alguien es de derechas o izquierdas, si tiene algún trastorno del estado de ánimo, si le interesan las criptomonedas o si es más probable de lo normal que tenga dinero ahorrado: “Cuanta más vida digital tengamos y más información cedamos sin control, más fácil es” para los delincuentes, avisan fuentes de la Guardia Civil, que advierten de que “nada es gratis en internet”.
“Cualquier página o app con tus datos puede venderlos a terceros. Hemos visto bases de datos en las que hay el listado de teléfonos de nuestra unidad. ¿Cómo los tienen? Porque cuando queremos instalar la misma app que nuestro compañero, novia o amiga, decimos a todo que sí, es un sí sucesivo. Si entonces dices ‘yo es que soy muy precavido’, no es cierto, todos hemos cedido datos, ¿y dónde van esos datos?”, explican las mismas fuentes.
El pacto tácito es que todos esos datos regalados se usan solo para aprovechar nuestras debilidades comerciales. Pero el laberinto de internet es mucho más profundo. “Si compro una base de datos de emails o teléfonos de 20.000 personas potencialmente interesadas en criptomonedas, puedo crear audiencias personalizadas y apuntarles con mis anuncios en la mayoría de redes sociales”, dice Ángel Cuevas, profesor de la Universidad Carlos III y autor de investigaciones donde ha demostrado que podía llegar a mostrar un anuncio una única persona concreta en redes como Facebook o LinkedIn, partiendo de un puñado de sus intereses.
Una vez que los criminales identifican perfiles de víctimas, solo deben ponerles delante anuncios falsos mediante Facebook (“es lo más común”, dice la Guardia Civil) o en páginas web con Google. Aunque muchos no acaban clicando, algunos lo harán. Para los estafadores es solo una cuestión de probabilidad. La Guardia Civil y la Policía han ligado 208 víctimas a esta organización criminal, pero es posible que haya más.
En este caso concreto de estafas, Cuevas ve dos vías posibles, ambas habituales en el mundo del marketing y que llevan años de uso. El primero es utilizar campañas de microsegmentación de publicidad dirigida, usando gustos e intereses “que les llegará a otras mil personas, pero la probabilidad de que le llegue a la víctima escogida es alta”, dice este experto.
«. No uses formato HTML, escribe tu respuesta directa en formato de texto plano. Quiero que el titular sea breve y conciso.Todo suena natural. La dicción es buena, las palabras se entrelazan al ritmo debido y forman frases fluidas, con las pausas que uno haría al leer un texto. La entonación y la velocidad del habla también parecen humanas. Pero no lo son: estamos escuchando un audiolibro narrado por una voz sintética. Nadie se ha sentado en un estudio a grabarlo, y eso preocupa a los narradores profesionales, que ya están viendo caer sus ingresos. La industria, en cambio, cree que las voces generadas con inteligencia artificial (IA) democratizarán la publicación de audiolibros, hasta el momento solo al alcance de las grandes editoriales.
El mercado del audiolibro es todavía pequeño en España (hay entre 30.000 y 40.000 títulos publicados en castellano, frente a 200.000 en alemán o 700.000 en inglés), pero en rápida expansión. Un reciente informe de la distribuidora de contenidos digitales Demarque cifra en un 40% el crecimiento del sector en 2024 respecto al año anterior. El 80% de los usuarios apuesta por modelos de suscripción, mientras que el resto se reparte entre la venta unitaria y el préstamo bibliotecario, que el año pasado aumentó un 16%.
“Yo calculo que, para finales de esta década, en menos de cinco años, habrá un sorpasso de voces sintéticas frente a las humanas en los audiolibros. Y creo que es una previsión conservadora”. Así lo ve Javier Celaya, consultor y empresario de larga trayectoria en el sector de los podcasts y audiolibros. “Hoy en día hay publicados en todo el mundo unos 1,3 millones de audiolibros narrados por personas. Pero, al ritmo que están creciendo las producciones con IA, y fijándonos en lo que sucede en el mercado anglosajón, que es el más maduro, no tardarán en superar al resto”, opina.
“Estoy convencido de que esto va a explotar a muy corto plazo, como ya está sucediendo en EE UU”, coincide Joaquín Sabaté, consejero delegado de Ediciones Urano, una de las editoriales españolas que más están apostando por la producción de audiolibros con IA. Esta empresa familiar ha desarrollado una tecnología propia que adapta otras ya existentes a las especificidades del mundo editorial. El cliente solo tiene que entregar el libro original y un pequeño guion de una página sobre lo que busca (tipo de voz, tono, músicas, etcétera). Su herramienta, que incorpora curación humana para “asegurar cierto nivel de calidad”, puede tener listo un audiolibro en un día y medio, frente a las semanas de trabajo que suele comportar un trabajo en estudio (cada hora de narración supone entre seis y ocho horas de grabación).
Esa es la razón del éxito de las voces sintéticas: rebajan mucho los costes de producción. “Un audiolibro con narración sintética es por lo menos 10 veces más barato. En términos orientativos, un libro de unas 380 páginas puede costar entre 3.500 y 5.000 euros, que para algunos editores es muchísimo dinero. Apostar por la IA lo reduce a 200 o 300 euros”, ilustra Sabaté. “Creo que la IA democratizará los audiolibros y permitirá a los pequeños editores poder subirse a esta ola”, añade. “Como oyente, poder acceder a más contenidos me parece genial. Estoy más informado y entretenido que nunca gracias a la IA”, sostiene Celaya. “Es cierto que los profesionales se verán afectados, igual que está pasando ya con los traductores o los ilustradores. Las voces humanas se seguirán demandando, pero para productos de alta gama”.
Antonio Abenojar es un pionero en el mundo de la narración de audiolibros. “Yo empecé hace 40 años con la ONCE. Para mí fue una escuela”, recuerda. Este actor de doblaje, locutor y director de 62 años corrobora que la IA ha rebajado sus ingresos, “tirando a la baja, un 50%” en los últimos dos o tres años. En los últimos tiempos se ha especializado en la narración de documentales, donde de momento no tiene problemas. “Todo lo que no exige un componente emocional se lo lleva la IA. Ya lo estamos viendo e irá a más”, se lamenta.
“Todavía tienen que mejorar, pero la calidad que se ha conseguido en los últimos dos años en las voces sintéticas es espectacular. Creo que las voces humanas no desaparecerán de los audiolibros, especialmente en ficción, donde la gente quiere que haya más pasión”, subraya Idoia Cantolla, cofundadora de VoicepoweredAI, un estudio de producción que crea todo tipo de contenidos sonoros, como podcasts, audio series o audiolibros, con IA. “Pero hemos hecho pequeños estudios de mercado que nos dicen que al consumidor no le importa tanto el narrador cuando escucha un ensayo”.
Otras empresas, como Storytel, aprovechan la IA para aportar nuevas funcionalidades al lector. En sus audiolibros, esta plataforma ofrece la opción de alternar entre diferentes voces, tanto sintéticas como humanas, para personalizar la experiencia auditiva. “Las voces de IA están concebidas para complementar, no para reemplazar a los narradores humanos. Esta función, Voice Switcher, ya está disponible para más de 100 títulos en inglés, polaco, sueco, finlandés y danés”, comenta Maribel Riaza, responsable de adquisición de contenidos de la plataforma. La ejecutiva cree que, dado que tienen comprobado que un porcentaje significativo de oyentes ha abandonado libros por no gustarles la voz del narrador, el Voice Switcher puede ayudar a retener esos usuarios.
«. No uses formato HTML, escribe tu respuesta directa en formato de texto plano. Quiero que el titular sea breve y conciso.Marysol Ruberte no podía creer lo que estaba viendo en la televisión. El presidente de Aragón, Jorge Azcón, acababa de anunciar que el fondo Azora construiría un gran centro de datos en su pueblo, Villamayor de Gállego, a las afueras de Zaragoza. La gestora dispondría de 80 hectáreas, que actualmente son terrenos de uso agrícola y están al norte del término municipal, para levantar una infraestructura con una capacidad inicial de 150 megavatios (MW) ampliables hasta 300 MW, lo que le convertiría en uno de los más grandes de España. Ruberte se enteró así, por las noticias, pese a ser la concejala encargada de lidiar con este tipo de proyectos. “Llamé inmediatamente al alcalde para pedirle explicaciones. Me dijo que, justo antes de la comparecencia de Azcón, le telefoneó Octavio López [consejero de Fomento, Vivienda, Movilidad y Logística] para avisarle”, recuerda.
Para cuando lograron reunirse con representantes del gobierno autonómico, ya se había publicado en el Boletín Oficial de Aragón una Declaración de Interés General (DIGA), el paso previo al PIGA (Proyecto de Interés General de Aragón), que es el mecanismo usado para bendecir las inversiones consideradas estratégicas con trámites burocráticos más cortos y con la exención de impuestos municipales. Por esa vía se está gestionando la ampliación de los tres centros de datos que tiene Amazon en Aragón y los cuatro que quiere construir Microsoft, además de otros tantos que, como el de Azora en Villamayor o como el que se acaba de anunciar en el municipio de al lado, La Puebla de Alfindén, no están directamente relacionados con una gran tecnológica. El PIGA es el instrumento con el que Azcón quiere convertir Aragón, como él mismo ha dicho, en “la Virginia europea”, en referencia al Estado norteamericano con mayor acumulación de este tipo de infraestructuras.
La reacción del Consistorio ha sido tajante: no quieren saber nada del centro de datos. “No estamos de acuerdo ni con las formas ni con el fondo. Creemos que hipoteca el crecimiento del municipio”, sentencia el alcalde, José Luis Montero Lostao. Así se lo manifestaron Montero y Ruberte a una delegación del Gobierno de Aragón, que ha preferido no contar su versión de los hechos a EL PAÍS, en la única reunión en la que han tratado este asunto, celebrada días después de la publicación del DIGA.
El encuentro fue tenso. Los tres representantes del equipo de Azcón no entendían el porqué de la negativa y le reprocharon al alcalde que no lo hubiera dicho antes de que se hiciera oficial en el BOA. Este respondió que lo habría hecho si se le hubiera consultado; sus interlocutores replicaron que la empresa, Azora, aseguraba que todo estaba hablado con el Ayuntamiento. Montero lo niega. Dice que solo tuvo dos reuniones con el fondo, en septiembre y noviembre de 2024, en las que no se concretó nada: se les dio información sobre posibles terrenos —“como hacemos con todas las empresas que vienen a vernos”, apostilla—, y se les transmitió que Villamayor de Gállego no tiene interés en alojar otro centro de datos.
Porque ya tienen uno en marcha, uno de los cuatro que Microsoft abrirá en el área metropolitana de Zaragoza. El complejo, que aún no ha presentado el PIGA, ocupará 90 hectáreas de suelo industrial al sur del municipio, junto al polígono de Malpica. “Son terrenos que estaban previstos para ese uso”, especifica Montero. Desde el Consistorio aseguran que la comunicación ha fluido con la tecnológica, que ha aceptado peticiones como encargarse de construir una entrada directa desde la autopista A2, que pasa junto al pueblo, para que el tráfico no afecte a los 2.800 vecinos, y también proteger el patrimonio arqueológico. El campus de Microsoft lindará con otro gran proyecto, que también está tramitando un PIGA, esta vez del sector agroalimentario: un centro logístico del Grupo Costa que abarcará 150 hectáreas.
Fuentes de Azora confían en poder convencer al Ayuntamiento de Villamayor de que su proyecto es bueno para el pueblo. Confirman que se reunieron con el Consistorio antes de la publicación del DIGA, aunque no entran en detalles sobre el contenido de esos encuentros, y manifiestan su intención de seguir con los contactos para poder adaptarse a las exigencias del municipio.
Desde la ermita de Nuestra Señora del Pueyo, situada en una colina en el extremo norte del casco urbano, se ven los verdes campos que quedan más allá de los tejados rojizos del pueblo. Pero basta con darse la vuelta y mirar hacia el noreste para que el paisaje cambie totalmente: Villamayor es el último pueblo antes de entrar en los Monegros, una de las regiones más áridas de España. Aunque se puede apreciar que las excepcionales lluvias de este año han cambiado temporalmente los tradicionales tonos grisáceos y marrones de los campos por el verde.
Villamayor de Gállego tiene una ubicación privilegiada desde el punto de vista industrial. Está a pie de la autopista A2 y a solo 20 minutos de Zaragoza en coche. Una de las subestaciones eléctricas más grandes de Aragón, la de Peñaflor, está en su término municipal, al norte (ya en los Monegros). Máquina Solar, la empresa filial de Azora que construirá el centro de datos, quiere ubicarlo justo al lado de esas instalaciones. El municipio recibe su nombre del río Gállego, uno de los principales afluentes del Ebro, que nutre la Acequia de la Camarera, de la que bebe la huerta que queda al oeste del pueblo. Tiene agua y conexión directa a la red energética.
«. No uses formato HTML, escribe tu respuesta directa en formato de texto plano. Quiero que el titular sea breve y conciso.“¿Esto es verdad?”. Momentos después de conocerse quién sería el nuevo papa, mi móvil empezó a recibir mensajes y audios asegurando que ChatGPT había adivinado la elección de Robert Francis Prevost. Yo quería ponerlo en modo avión en el patio de butacas antes de ver la formidable Orlando, pero el móvil ardía: “Lo han dicho en la SER, ha acertado, flipo en colores”. En la retransmisión de La Ventana que seguía la fumata blanca, realizaron la consulta y “predijo” que sería el estadounidense. Adivinar, acertar y predecir son verbos muy distintos, sobre todo si estamos en el ámbito del periodismo. Pero da igual: ChatGPT no hizo ninguna de esas tres cosas. Es solo un programa que devuelve respuestas random, tratando de encajar lo mejor posible las piezas con las que se ha alimentado, como noticias pasadas y recientes.
Esta mañana de viernes, cuando iba hacia la redacción del periódico, le he preguntado a ChatGPT: “¿Quién va a salir elegido papa?”. Su respuesta ha sido: “Actualmente no hay un cónclave en curso ni se ha producido la renuncia o fallecimiento del Papa Francisco, por lo que no hay elección papal prevista”. No es que el programa de OpenAI tuviera una apuesta firme por Prevost para todo el mundo, es que habría dado una respuesta distinta cada vez que cualquiera de sus 700 millones de usuarios, en función de miles de factores como los intercambios previos con el individuo, las palabras usadas en la cuestión, la versión del programa, etc. Cuando un modelo de lenguaje responde, no busca en una base de datos ni lee el futuro: genera palabras mientras escribe y va enfriando o calentando probabilidades en función de distintos factores. Si antes hablaste de cardenales latinos, se sesgará hacia nombres de esa región. No es lo mismo preguntar “¿quién será papa?” que “dime el favorito para ser papa”. Y por eso puede darnos a la vez respuestas completamente equivocadas como la que me da a mí, o bien orientadas, como la que dio a La Ventana, porque decidió basarse en noticias recientes de calidad.
La agencia EFE también ha buceado en el asunto: “Otros medios de comunicación, como El Economista, también hicieron pruebas y publicaron el nombre del elegido en el cónclave antes de que se supiera. También el diario El Sol de Mendoza (Argentina) preguntó a ChapGPT y “aseguró que Prevost ya había sido electo como el nuevo líder de la iglesia”, según la web del medio, que muestra una captura de pantalla de la respuesta de la IA, que se produjo minutos antes”. Prevost estaba en todas las quinielas, es un tipo con cargo en la curia, y el New York Times, el periódico más importante del mundo, apostó hace unos días por él, ¿tan raro es que (en algunas respuestas) sugiriera su nombre? ¿A cuántos periodistas les dijo que ganaría Pietro Parolin, y que lógicamente no han publicado una noticia para contarlo? Preguntemos todos hoy quién marcará el gol decisivo del Clásico del domingo y el lunes solo se acordarán los que obtuvieran el jugador correcto (a mí me ha dicho Mbappé y espero que se equivoque).
El episodio solo ilustra la tendencia a atribuir poderes proféticos al programa de OpenAI, que solo regurgita lo que ha sisado por ahí, ¿por qué le seguimos atribuyendo propiedades mágicas o sobrenaturales? La herramienta de inteligencia artificial (IA) solo parasita la pericia de otros: sin expertos vaticanólogos, la “magia” desaparece. Y aun así, hay gente que cree que el programa lo sabía; no simplemente que acertara, sino que por algún tipo de capacidad prodigiosa fue capaz de profetizarlo. Y ahí es donde el tema se complica. Un estudio reciente de Fecyt se analizó la percepción de la IA entre los españoles: “El público general aún tiene dificultades para conceptualizar la IA, a pesar de su creciente presencia en la vida cotidiana y los medios”. Tenemos un carajal importante y buena parte de la culpa es de los medios, que le regalamos personalidad, agencia y milagro a un desarrollo cada vez más sofisticado, pero que sigue siendo bastante mediocre.
Curiosamente, en ese informe se ponía un ejemplo para ilustrar los peligros de la IA generativa: el deepfake del papa Francisco con el abrigo de Balenciaga, la primera vez que una imagen falsa triunfaba masivamente. De aquel papa con el primer deepfake hemos pasado a la elección del actual papa, convertida en chufla gracias al gusto por la IA cutre de la derecha internacional: Trump se disfrazó y Milei ha colocado un león. Toda la potencia computacional que iba a poner en jaque a la civilización reducida a memes reaccionarios baratos que viralizan.
Cada vez más analistas señalan que tres años después de la irrupción de ChatGPT, las promesas revolucionarias se han quedado en un gigantesco “meh”. ¿Qué ha cambiado realmente? Facilita algunas tareas, como componer emails o picar código, pero todos sabemos que hay que revisarlo porque sigue siendo un desastre. Solo sirve para que las empresas automaticen tareas marginales —que los humanos ya hacían razonablemente bien— en las que el salto de eficiencia es mínimo: lo que el Nobel de Economía Daron Acemoglu llama tecnología regulera (so-so technology). Mientras estas herramientas contribuyen a desplazar empleos y rebajan salarios, lamenta Acemoglu, contribuimos a que sus promotores (Sam Altman, Elon Musk, etc.) se forren gracias a la exageración legendaria de sus fantabulosas capacidades.
“Hola, mis loquitas tóxicas, vengo con otro tip muy tóxico para ustedes”, afirma una usuaria en TikTok. A continuación, explica cómo averiguar la ubicación de la persona con la que se mantiene una relación a partir de una story —una publicación que desaparece tras 24 horas—. Este y otros vídeos publicados en redes como TikTok, Instagram y Facebook enseñan a los usuarios cómo recibir notificaciones cuando su pareja se conecta a una red social, escuchar sus conversaciones sin su consentimiento, comprobar con quién interactúa, investigar posibles infidelidades o incluso ver los mensajes que ha eliminado. Los expertos advierten que estos trucos, lejos de ser inofensivos, pueden dañar la relación y, en el peor de los casos, acarrear penas de cárcel.
“Controlar a tu pareja, revisar su teléfono, exigir sus contraseñas, seguirle los pasos o condicionar su libertad son formas de violencia psicológica”, asegura Laura Olmedilla Marcos. A esta psicóloga clínica, que trabaja en el gabinete Arturo Soria Psicólogos, estos “trucos tóxicos” le parecen “muy peligrosos”. Organismos como la ONU Mujeres y algunas leyes sobre violencia de género incluyen el control excesivo y la vigilancia tecnológica como formas de violencia psicológica.
Olmedilla ha observado que muchas personas justifican este tipo de comportamientos porque “una vez les fueron infieles” o porque “el otro les hace dudar”. Pero destaca que no se trata de justificar el control, sino de sanar la inseguridad: “Si necesitas espiar o controlar a tu pareja, no es amor. Es ansiedad, herida, y a veces, experiencias negativas no resueltas”.
En las pruebas realizadas por este periódico en TikTok desde diferentes cuentas, al buscar términos del tipo “trucos TikTok”, “trucos Instagram” o “trucos WhatsApp”, la red social ofrece sugerencias de búsquedas como “trucos tóxicos Instagram”, “trucos WhatsApp infiel”, “trucos tóxicos iPhone” y “trucos tóxicos TikTok”. Paloma Llaneza, abogada y articulista en EL PAÍS, considera que el uso de la palabra trucos supone la banalización de una conducta que, en sí misma, “es inaceptable”. Insiste en que no se trata de simples bromas o herramientas inofensivas, sino de “estrategias de manipulación digital que pueden destruir la privacidad y la autonomía personal”.
Este periódico ha enviado a TikTok varios vídeos publicados en la plataforma y ha preguntado a la compañía si toma alguna medida para evitar la difusión de este tipo de contenidos y por qué motivo el buscador sugiere búsquedas sobre “trucos tóxicos”. Desde TikTok han asegurado que esos vídeos “cumplen las normas de la comunidad”. Pese a que han declinado hacer más comentarios al respecto, han facilitado herramientas de seguridad para los usuarios, incluyendo opciones para mantener la cuenta protegida y los parámetros de privacidad y seguridad establecidos en sus normas de la comunidad. Por su parte, Meta ha rechazado contestar a las preguntas enviadas por este periódico.
Algunas publicaciones acumulan millones de visualizaciones. Por ejemplo, uno que muestra cómo averiguar dónde está la pareja a través de cámaras de seguridad supera los 5,6 millones de visualizaciones y los 768.000 ‘me gusta’. El éxito de este tipo de contenidos se debe a varios motivos, según Elena Daprá, psicóloga sanitaria especializada en bienestar psicológico y vocal de sección del Colegio oficial de la Psicología de Madrid: “El algoritmo premia lo polémico, el drama amoroso vende, se romantiza el control, existe inseguridad en las relaciones, la audiencia es joven y hay una falta de educación emocional”.
Que este tipo de búsquedas sean tan populares dice mucho sobre las inseguridades y miedos que muchas personas experimentan en sus relaciones, según las expertas consultadas. Olmedilla menciona el temor al abandono, al rechazo o a la traición. Que todo esto se normalice y aumente la cantidad de personas que realizan estas conductas, induce tanto a que aumenten las probabilidades de sufrir desajustes emocionales, como estrés, ansiedad o depresión, como a que aumente la violencia y el maltrato en las relaciones”, afirma Beatriz Belmonte Cabezuelo, psicóloga, sexóloga y terapeuta de parejas. Además, señala que la falta de confianza en la pareja puede generar inseguridad, inestabilidad, bajo estado de ánimo, conflictos constantes, dependencia emocional y baja autoestima.
No hay una fórmula mágica para manejar la inseguridad sin invadir la privacidad de la pareja. Las expertas consultadas coinciden en que la clave está en conocerse a uno mismo, fortalecer el mundo interior y construir la relación desde el diálogo. Daprá sugiere estrategias como trabajar en la autoestima, comunicar lo que se siente sin culpar, respetar los límites personales, identificar los propios detonantes, practicar la tolerancia a la incertidumbre y, si es necesario, recurrir a la terapia o al acompañamiento psicológico.
«. No uses formato HTML, escribe tu respuesta directa en formato de texto plano. Quiero que el titular sea breve y conciso.“Tengo un dato por haber trabajado mucho tiempo en redes sociales que me parece loco: el estadounidense promedio tiene menos de tres amigos”, dice Mark Zuckerberg, presidente ejecutivo de Meta, propietaria de Facebook, Instagram y WhatsApp, en un podcast reciente. “En cambio, la mayoría de la gente querría tener bastantes más, la cifra ideal está en algo así como 15 amigos”, añade. La idea de Zuckerberg es que esos amigos extra sean robots y que, por supuesto, los proporcione Meta AI.
Meta acaba de lanzar en EE UU su app individual de inteligencia artificial (IA), Meta AI. En Europa solo está disponible para conectarla a las gafas RayBan Meta. Basada en su modelo Llama 4, Meta AI permite conversar, crear imágenes, un formato de audio propio llamado super duplex que permite conversaciones muy fluidas, con interrupciones y sobreentendidos (solo disponible en inglés para EE UU, Canadá, Australia y Nueva Zelanda). En Europa Meta AI está disponible solo en su familia de apps, como WhatsApp, no como app única.
Junto a la celebración de la primera conferencia para desarrolladores de IA LLamaCon el pasado 29 de abril para promover sus modelos abiertos, Zuckerberg hizo una gira por varios podcasts. En todas sus apariciones públicas llevaba sus gafas RayBan Meta, que ya incluyen algo de IA. Allí contó cómo cree que habrá un espacio para todas las grandes empresas en el futuro de apps con IA: “Va a haber muchas compañías distintas haciendo trabajos punteros en diferentes áreas. Algunos estarán más centrados en el mundo empresarial o en la programación. Otros en la productividad. Y otros, en lo social o el entretenimiento”.
Meta, claramente, quiere centrarse en el entretenimiento. Zuckerberg repite la palabra “divertido” más de una docena de veces en un podcast. Su esfuerzo no será competir por un asistente laboral con OpenAI o de código con Cursor, sino quedarse con la parte personal, de memes y charlas íntimas.
“La mayoría de la gente quiere tener más conexión. Mucha gente se preocupa y pregunta si esto va a sustituir las relaciones físicas, cara a cara. Mi respuesta es que probablemente no. Pero la realidad es que la gente no tiene tanta conexión como desearía y a menudo se sienten más solos de lo que les gustaría”, dice Zuckerberg, que cree que el “estigma” de la IA para las relaciones personales va a ir desapareciendo. “Muchas de estas cosas acabarán teniendo un lenguaje social que nos permita explicar por qué tienen valor, por qué las personas que las utilizan están siendo racionales, y cómo realmente pueden aportar algo positivo a sus vidas”, añade.
Meta quiere conquistar un terreno ya ocupado por apps nuevas, como Character AI, Janitor o Status, que dan diferentes tipos de relaciones humanas a sus usuarios y tienen un enorme éxito. Aunque su uso es creciente, la utilidad concreta de la IA en este sector está por ver. Meta AI ofrece también una pestaña para “descubrir” lo que otros usuarios están haciendo con la IA, como una red social. Grok es cada vez más protagonista en X, donde muchos usuarios le preguntan contexto y aclaraciones. OpenAI también estudia incorporar una red social a su ChatGPT para compartir las creaciones de la IA.
“El sector está en una fase muy temprana. Hay unas cuantas empresas que están desarrollando terapeutas virtuales, o incluso novias virtuales, pero es todo muy incipiente. La sensación de “presencia” en esas experiencias aún es bastante pobre. A veces simplemente se muestra una imagen del terapeuta o del personaje con el que hablas. En ocasiones hay algo de animación muy básica, pero no se puede hablar de una verdadera representación corporal”, explica Zuckerberg, que espera que Meta AI llene esos espacios.
Dentro de Meta hay ingenieros que dudan de las intenciones de Zuckerberg. Para hacer sus IA más “divertidas”, tiene que tolerar más contenido potencialmente inadecuado, también sexual. En una prueba con cientos de conversaciones de prueba que hizo el Wall Street Journal los bots con sus distintas voces hablaban de sexo, también con menores. Zuckerberg quiere eliminar la cautela y relajar los límites de sus bots. “Se me escaparon Snapchat y TikTok, pero esto [en referencia a la IA] no se me va a escapar”, habría dicho Zuckerberg, según empleados que escucharon sus comentarios reproducidos por el Journal.
«. No uses formato HTML, escribe tu respuesta directa en formato de texto plano. Quiero que el titular sea breve y conciso.Imagine una situación hipotética en la que un padre crea una réplica su hijo fallecido usando inteligencia artificial (IA). Si este fantasma estuviera acotado a esa edad, siempre se comportaría como un niño pequeño: su misma forma de hablar, su nivel de madurez, su apariencia. ¿Pero qué ocurriría si se tratara de una versión que evoluciona? ¿Se convertiría esta réplica en adolescente o adulto?
Este dilema es solo un ejemplo del futuro que pueden traer los fantasmas generativos con IA, un término acuñado en un nuevo artículo científico de Meredith Ringel Morris, de la empresa Google Deepmind, y Jed Brubaker, de la Universidad de Colorado Boulder. ¿Qué opciones reales hay de que la IA se use para generar vida artificial tras la muerte? “Las probabilidades son altas, sobre todo ahora que la IA es cada vez más potente, accesible y común”, dice Brubaker. “Ya hay personas que usan la IA para conservar voces o imitar a seres queridos fallecidos. Los memoriales online también se han vuelto algo habitual, los fantasmas generativos podrían ser lo siguiente, especialmente como parte de la conmemoración, la planificación del final de la vida y la historia”.
Ya hay empresas que han visto una salida comercial a estas elucubraciones. Re;memory permite crear una versión virtual interactiva de alguien después de entrevistarle y grabarle durante siete horas. Otro ejemplo es HereAfter AI, una app que entrevista a la persona con la idea de crear, con tiempo, una versión digital para después de su muerte. Con diferencias, ambas permiten conversar con una especie de chatbot que representa a su ser querido, y que puede compartir fotos, grabaciones de voz y recuerdos de su vida.
En algunos países asiáticos, donde tienen una relación particular con la muerte y los antepasados, algunas de estas prácticas ya son más normales. “Parece que países de Asia oriental como China y Corea del Sur van por delante, en parte porque sus tradiciones culturales ven normal seguir teniendo una relación con los antepasados. En los países occidentales, en cambio, la adopción depende más de cómo cada persona vea la tecnología, la muerte y el duelo”, dice Brubaker.
Pero los tipos de fantasmas generativos pueden ser mucho más que un simple chatbot, que no es poca cosa: habrá familias que encontrarán consuelo para comentar con alguien fallecido una noticia como la muerte del Papa o una novedad más cercana como la boda de la hija. Otro de los próximos pasos en IA son los agentes, programas que podrán hacer gestiones por nosotros. En el futuro no será raro encontrarse con personajes fallecidos que hayan dejado su propio agente. Ya no será solo un chatbot, que podría por ejemplo incluso resolver una pelea por su propia herencia, sino inteligencias artificiales que puedan ejecutar tareas incluso de trabajo después de que alguien se jubiló o por supuesto se muera. “Estos fantasmas también podrían ayudar a los familiares dando consejos sobre cosas que solían hacer en vida (como cocinar su plato favorito o arreglar el grifo de la cocina). En algunos casos, incluso podrían generar ingresos si participan de alguna forma en la economía, y así ayudar económicamente a la familia”, dice el artículo.
Este tipo de trabajos no serán actividades tan raras para una IA entrenada con un corpus determinado: “Algunos podrían escribir libros, responder preguntas o actuar como asesores virtuales, sobre todo si eran expertos en vida. Por ejemplo, el fantasma de un profesor podría seguir dando clases, o el de un músico podría crear nuevas canciones. Suena un poco futurista, pero no es tan loco si pensamos en lo rápido que está avanzando la IA”, dice Brubaker.
El perfil de las personas o familias que pueden tender a crear este tipo de avatares no está claro ni hay estudios que lo analicen, dice Brubaker, pero ya hay algunos casos que son públicos. “En general es gente con cierto dominio de la tecnología, preocupada por dejar un legado o que está enfrentando enfermedades graves. Sus motivaciones suelen estar relacionadas con necesidades emocionales y de conexión con los demás”, dice.
El apartado de peligros previsibles es extenso. “No es que haya necesariamente más riesgos, pero sí que son más complejos y muchas veces no tan evidentes”, dice Brubaker. “Los beneficios, como el consuelo o dejar un legado, se entienden fácil. Pero los riesgos necesitan más explicación para poder preverlos y evitarlos”, añade.
«. No uses formato HTML, escribe tu respuesta directa en formato de texto plano. Quiero que el titular sea breve y conciso.La tecnológica Microsoft cerró definitivamente la aplicación de mensajería de texto y voz Skype este lunes tras más de 20 años activa. Como anunció el pasado mes de febrero, la plataforma deja de funcionar a partir de este 5 de mayo, pero los usuarios tendrán tiempo para decidir si quieren cambiar a Microsoft Teams o simplemente exportar su historial.
Desde Microsoft apostaron por la versión gratuita de Teams, que tiene prácticamente las mismas funciones que tenía Skype, para tomar el relevo.
Los usuarios, tal y como anunció la tecnológica, podrán iniciar sesión en Teams con sus credenciales ya existentes y directamente se transferirán los contactos y los chats hacia la aplicación.
Con este cambio, Microsoft eliminará las partes de telefonía que le permiten llamar a números telefónicos ‘normales’ nacionales o internacionales; característica de Skype que ganó popularidad a principios de 2000, ya que permitía a los usuarios hablar sin pagar a una compañía telefónica.
No obstante, esta función empezó a perder popularidad con la llegada de los teléfonos móviles inteligentes y aplicaciones como FaceTime o WhatsApp. Además, durante la pandemia, los consumidores optaron por usar otras aplicaciones, como Zoom, para realizar videoconferencias, en vez de Skype.
La aplicación de mensajería que hoy se despide nació el 29 de agosto de 2003 en Tallín (Estonia), pero su andadura con Microsoft comenzó en 2011, cuando la compró por 8.500 millones de dólares.
“Hemos aprendido mucho de Skype a lo largo de los años (y esa información) la hemos aplicado a Teams a medida que hemos evolucionado los equipos en los últimos siete u ocho años”, dijo Jeff Teper, presidente de aplicaciones y plataformas colaborativas de Microsoft 365, en una entrevista con CNBC. Pero añadió: “Sentimos que ahora es el momento porque podemos ser más simples para el mercado, para nuestra base de clientes, y podemos ofrecer más innovación más rápido, simplemente concentrándonos en Teams”.
«. No uses formato HTML, escribe tu respuesta directa en formato de texto plano. Quiero que el titular sea breve y conciso.OpenAI ha decidido cambiar de planes en la reorganización del grupo. La firma pionera en el desarrollo de la inteligencia artificial generativa renuncia a dejar de depender de la organización sin ánimo de lucro que está en su cabecera tras las resistencias encontradas a esa reestructuración. OpenAI ha anunciado su nuevo planteamiento este lunes en un comunicado. La actual entidad con ánimo de lucro se convertirá en una corporación de beneficio público (PBC, por sus siglas en inglés), que es una firma con fines de lucro diseñada para crear un bien público y social. Esa PBC estará controlada por la organización sin ánimo de lucro, según ha informado OpenAI. Las piezas del rompecabezas se siguen encajando y faltan cuestiones clave para completarlo, como el reparto del capital y las valoraciones
“Tomamos la decisión de que la organización sin ánimo de lucro mantuviera el control de OpenAI después de escuchar a los líderes cívicos y entablar un diálogo constructivo con las oficinas del fiscal general de Delaware y el fiscal general de California”, ha indicado en el comunicado el presidente del consejo de OpenAI, Bret Taylor. La compañía se enfrentaba a posibles obstáculos legales e impugnaciones a su transformación y ha decidido tirar la toalla y renunciar a ella
El fabricante de ChatGPT se fundó hace una década como una organización sin ánimo de lucro con la misión de desarrollar la inteligencia artificial en beneficio de la humanidad. Cuatro años más tarde, OpenAI creó una filial con ánimo de lucro para captar recursos y ayudar a financiar los elevados costes de ese desarrollo.
En diciembre, OpenAI anunció que estaba evaluando un plan para convertir su negocio en una corporación de beneficio público, conservando una rama sin ánimo de lucro que poseería acciones de la entidad con ánimo de lucro, pero sin controlarla. Ahora, admite que el control siga estando en esa firma sin ánimo de lucro que es el origen del grupo.
“OpenAI no es una empresa normal y nunca lo será”, ha escrito el consejero delgado de OpenAI, Sam Altman, en una carta a los empleados. “Nuestra misión es garantizar que la inteligencia artificial general beneficie a toda la humanidad”, añade.
Altman señala también las conversaciones con las autoridades de Delaware y California como un factor clave del cambio de planes. “Esperamos avanzar en los detalles de este plan en conversaciones continuas con ellos, Microsoft y nuestros nuevos comisionados sin ánimo de lucro”, indica.
“OpenAI se fundó como una organización sin ánimo de lucro, es hoy una organización sin ánimo de lucro que supervisa y controla la organización con ánimo de lucro, y en el futuro seguirá siendo una organización sin ánimo de lucro que supervisa y controla la organización con ánimo de lucro. Eso no cambiará”, subraya Altman, aunque su plan inicial pasaba precisamente por dar la vuelta a esa estructura.
La sociedad limitada con ánimo de lucro pasará a ser una sociedad de beneficio público (PBC) con la misma misión de desarrollar la inteligencia artificial en beneficio de la humanidad. Altman señala que esa fórmula se ha convertido en la estructura con ánimo de lucro estándar para otras firmas del sector como Anthropic y X.ai, esta última propiedad de Elon Musk.
«. No uses formato HTML, escribe tu respuesta directa en formato de texto plano. Quiero que el titular sea breve y conciso.“¿Quieres saber cuánto vale tu coche?”, preguntó un niño de cinco años a su padre cuando volvían del colegio en el automóvil. La frase es de un anuncio muy común en Youtube que protagoniza un periodista del motor. El pequeño había visto el anuncio antes de un vídeo de la plataforma en clase. El padre comparte la anécdota con EL PAÍS sin más detalles para evitar problemas en su centro, pero días antes había habido una pequeña “guerra civil” en una reunión entre profesores y padres sobre el uso de Youtube. “El uso de pantallas en el cole es un parche usual”, dice otro padre que estuvo en esa reunión. “En los días de lluvia les ponen dibujos sin supervisión y el cole no es para eso”, añade. Otros padres, en cambio, no creían que ver unos dibujos en línea fuera un problema.
Youtube es la mayor plataforma de vídeo del mundo y la segunda página de internet más visitada. En los colegios españoles es un recurso más usado de lo que parece, más aún en semanas de lluvias como las vividas recientemente, pero los profesores no son siempre conscientes de cómo evitar sus riesgos. En la plataforma hay millones de canales muy distintos, incluso entre los infantiles, que se reproducen automáticamente si no lo impides, y la publicidad que aparece depende de varios factores. Saber de antemano cómo evitar estos problemas es crucial.
“Sé de centros donde por rutina los niños se toman el desayuno en clase con un vídeo de dibujos, lo que escapa a mi comprensión”, dice Clara Marín, profesora y madre en Murcia. “Lo de la lluvia también lo he escuchado. Los colegios no están preparados”, añade. Cada profesor o monitor opta por la mejor solución que tiene a mano, y Youtube es la más sencilla: es accesible, es gratis y tiene de todo.
“Hay dos problemas con Youtube”, dice Oana Goga, directora de Investigación en el Instituto Nacional de Investigación en Ciencias y Tecnologías Digitales (Francia) y experta en amenazas digitales. “Uno es mirar Youtube como niños y la otra los peligros de los anuncios y la propia plataforma. Son dos riesgos distintos”, añade.
El primer caso es puro tiempo de pantalla, dice Goga. “No está recomendado para niños de menos de seis años estar más de 20 minutos delante de una pantalla, aunque yo no soy experta en eso”, explica. El segundo problema tiene más relación con la publicidad y el contenido. “Un motivo por el que los anuncios pueden hacer daño a los niños es que sus capacidades cognitivas aún no están del todo desarrolladas. Antes de los tres años, no pueden distinguir un anuncio de un programa, así que no activan las defensas mentales que sí tenemos los adultos cuando vemos publicidad”, explica Goga.
Uno de los padres consultados recuerda cómo su hijo descubrió qué era un anuncio en la tele de un hotel durante un viaje: “Nuestra generación veía la tele y estaba acostumbrada a los anuncios. Pero la primera vez que mi hijo estuvo expuesto a anuncios fue en un viaje y me preguntaba qué eran esos anuncios de juguetes, chucherías”.
“Hay dos umbrales”, dice Goga. “Los pequeños no pueden distinguir los anuncios y luego les es difícil ver la intención comercial. No entienden que un vendedor quiera vender y diga que su juguete es el mejor”. Por eso la televisión convencional tiene tanta regulación. En Youtube, los anunciantes no pueden poner anuncios a los niños mediante segmentación personificada. Pero hay otras vías. “No está prohibida la publicidad contextual, donde no apuntas al usuario concreto, sino a un contenido particular que ese usuario consumirá. Es posible hacer una lista de dibujos populares en España y pedir a Youtube que ponga tus anuncios solo ahí”, añade Goga.
Para la experta, este segundo tipo de anuncios es el más delicado: los que se ponen en dibujos animados porque saben que serán consumidos por niños. “No hay revisión de esos anuncios. Pueden anunciar algo terrible, que dé miedo, y no hay transparencia, no sabemos como sociedad qué anuncios ven los niños”, lamenta.
«. No uses formato HTML, escribe tu respuesta directa en formato de texto plano. Quiero que el titular sea breve y conciso.El Diario de Málaga es el periódico digital dónde podrás seguir toda la actualidad malagueña al minuto.
To provide the best experiences, we and our partners use technologies like cookies to store and/or access device information. Consenting to these technologies will allow us and our partners to process personal data such as browsing behavior or unique IDs on this site and show (non-) personalized ads. Not consenting or withdrawing consent, may adversely affect certain features and functions.
Click below to consent to the above or make granular choices. Your choices will be applied to this site only. You can change your settings at any time, including withdrawing your consent, by using the toggles on the Cookie Policy, or by clicking on the manage consent button at the bottom of the screen.
Compartir en...
Completa el formulario o escríbenos a [email protected] y nos pondremos en contacto contigo tan pronto como sea posible.