Google avanza en su visión de llevar el modo inteligencia artificial (AI mode) a todos los aspectos de la vida laboral y cotidiana. Durante su conferencia de desarrolladores (Google I/O 2025), que ha arrancado este martes en Mountain View (California), ha presentado los avances presentes y próximos de la compañía, que suponen, básicamente, la extensión de los logros alcanzados a todas las aplicaciones, pero con más precisión, rapidez y facilidad de uso. Demis Hassabis, investigador y director general de Google DeepMind, resume el concepto, que denomina “IA universal”: “Que sea útil en su vida cotidiana, que sea inteligente, comprenda el contexto en el que se encuentra y pueda planificar y actuar en su nombre en cualquier dispositivo, este es nuestro objetivo final para Gemini [la IA de Google]”. Los principales avances empezarán a estar disponibles para la suscripción más cara (Ultra) a un coste de 249,99 dólares al mes (221,75 euros). Microsoft ha presentado también avances en la misma línea de agentes con capacidad de razonar y ejecutar tareas completas y complejas para el usuario.
Sundar Pichai, director ejecutivo de Google, presume de que uno de los logros alcanzados este año es haber conseguido la inclusión efectiva de su inteligencia artificial en el buscador, el más utilizado del mundo. A ello suma la personalización, la capacidad de desarrollar código, los avances en generación de contenido audiovisual y la menor latencia en la obtención de resultados. El directivo resalta que estas capacidades tienen un coste, pero defiende que las cuotas de suscripción de los precios de los modelos “están bajando significativamente”. “Hay un equilibrio difícil entre el precio y el rendimiento, sin embargo, una y otra vez hemos podido ofrecer los mejores modelos al precio más rentable”, argumenta.
“Reinvención” de las búsquedas. Pichai ha avanzado el lanzamiento de un modo de IA que se incorporará al buscador para responder el exponencial crecimiento de este uso. “Es completamente nuevo, una reinvención total de la búsqueda con más razonamiento avanzado, con respuestas a consultas más largas y complejas [hasta cinco veces la duración de las búsquedas tradicionales] y que puede ir más allá con preguntas de seguimiento”. Esta nueva pestaña ha comenzado este martes en Estados Unidos antes de extenderse al resto del mundo.
Avances audiovisuales. En el ámbito del vídeo, Google incorpora Project Starline, una tecnología para recrear imágenes que simulan las tres dimensiones. “El objetivo es crear la sensación de estar en la misma habitación que alguien”, explica Pichai. En este sentido, se ha presentado Google Beam, una herramienta que transforma las transmisiones bidimensionales de video “en una experiencia 3D realista” gracias a seis cámaras que recogen y fusionan en tiempo real diferentes ángulos. Se puede usar para llamadas por video, pero los primeros dispositivos con esta tecnología no estarán disponibles hasta finales de año. Google ha presentado también una versión mejorada de Flash y Astra, las herramientas de IA que permiten a Gemini Live interactuar con el dispositivo mientras este ve, memoriza y analiza el entorno en el que se desarrolla la interacción. Son la base de las futuras gafas Android XR, un dispositivo de realidad aumentada para acceder al agente con el dispositivo integrado en la persona. Del mismo modo, la nueva versión de VEO, la plataforma de creación audiovisual con IA, “combina video con audio por primera vez”, según ha explicado Hassabis.
Traductor. La función Starlight se incorporará a Google Meet, lo que permitirá la traducción simultánea de una videollamada (primero solo estará disponible en español e inglés). La máquina se adapta al tono de los interlocutores y recrea sus formas de expresión. También estará disponible a finales de año para suscriptores.
Agentes. La evolución de los robots conversacionales hacia los agentes (herramientas con capacidad de actuar en nombre del interlocutor) se fundamenta en Project Mariner, un agente que, además de planificar, puede ejecutar diferentes tareas de forma simultánea y aprender de las acciones que ejecute para ser proactivo y adelantarse a las peticiones del usuario. Estará disponible a partir de este verano. “Estamos comenzando a incorporar capacidades de los agentes a la búsqueda en Chrome y la aplicación Gemini mostrará un nuevo modo de agente”, ha anunciado Pichai.
Herramientas de trabajo y estudio. Los avances de Gemini, con capacidades de personalización (adaptación a las características del usuario), se incorporarán, también a partir del verano, a utilidades habituales en entornos laborales, como Gmail, Docs o Keep. También se implementarán mejoras para estudiantes, que podrán recurrir a la IA no solo para consultas puntuales, sino también, según explica Hassabis, en la “preparación de un examen, la comprensión de materiales, ejecución de pruebas previas y visualización de vídeos”.
Compras. Vidhya Srinivasan, vicepresidenta de compras, señala una de las nuevas funciones de Google orientadas a las compras y que aspira a que la IA sea capaz de ejecutar toda la tarea, desde la “inspiración” hasta el pago y el encargo. La IA no solo mostrará opciones, por ejemplo, de ropa, sino que puede, a partir de una foto personal, mostrar cómo queda en el usuario y completar el proceso o dejarlo en suspenso hasta que lo encuentre al precio que se quiere pagar.
«. No uses formato HTML, escribe tu respuesta directa en formato de texto plano. Quiero que el titular sea breve y conciso.El uso excesivo y dependiente de redes sociales indica una mayor tendencia a creer y compartir desinformación, según un nuevo estudio. La gente que más sufre al desconectarse de las redes sociales o que más afectan su estado de ánimo es también la que más tiende a clicar en noticias falsas.
“El uso problemático de redes sociales mide hasta qué punto una persona depende de ellas, y refleja un posible trastorno de adicción conductual”, dice Dar Meshi, investigador de la Universidad Michigan State y coautor del artículo. Ese consumo problemático incluye comportamientos variados: preocupación constante por las redes, cambios de humor por su utilización, necesidad de recompensas en forma de “me gusta” o comentarios, conflictos en la vida real o síndrome de abstinencia.
Ese comportamiento indica mayor probabilidad de creer que las noticias falsas son verdaderas, interactuar con publicaciones de noticias, tanto reales como falsas, y tener más ganas de hacer clic en noticias específicamente falsas. No está claro el motivo, sin embargo, según Meshi: “Nuestra teoría es que esto se debe a la impulsividad, que suele ser mayor en personas con un uso problemático de redes sociales, pero no abordamos este aspecto en el experimento”.
Los autores dirigieron este experimento online con 189 personas de entre 18 y 26 años. “Lo hicimos con gente joven porque son quienes muestran mayores niveles de uso problemático de redes sociales”, explica el investigador. Se les mostraron 20 noticias como si fueran publicaciones en redes sociales, de las que diez eran informaciones reales y diez eran ejemplos de fake news. Luego comprobaron el juicio de los participantes sobre esas publicaciones, y su intención de hacer clic, comentar, dar “me gusta” y compartir. Además, midieron su relación problemática en general con las redes.
Los investigadores creen que este estudio es el primero en analizar cómo el uso problemático de plataformas sociales influye en su creencia y relación con las noticias falsas. Las autoridades médicas no reconocen el consumo problemático de redes como un trastorno clínico, pero Meshi cree que presenta similitudes con el consumo de sustancias y otros trastornos adictivos de tipo conductual.
“Las personas que presentan un uso problemático de las redes pueden sentirse mal si no pueden acceder a ellas, e incluso volver a usarlas después de intentar dejarlas”, describe Meshi. “Este tipo de comportamiento se ha asociado a pérdidas de empleo, malas notas o problemas de salud mental”, añade.
Los investigadores creen que si contaran con la colaboración de las grandes plataformas tecnológicas que, como Meta o Google, dirigen estas redes, podrían hacer más para ayudar a este público. Por ejemplo, a la hora de identificar a las personas que muestran un uso problemático de redes sociales y adaptar su experiencia para reducir la difusión y el impacto de las noticias falsas. “Esto se podría lograr de muchas formas”, afirma Meshi. “Las plataformas podrían permitir que las personas que están en terapia por un uso excesivo de redes puedan optar por un tipo de algoritmo diferente”, explica.
«. No uses formato HTML, escribe tu respuesta directa en formato de texto plano. Quiero que el titular sea breve y conciso.Desde que Proyecto Debater, una inteligencia artificial (IA) entrenada con 10.000 millones de frases y 400 millones de artículos, se enfrentó y perdió ante Harish Natarajan, graduado de Oxford y Cambridge y campeón del mundo de debates, han pasado solo seis años. En este tiempo, las capacidades de imitar el razonamiento humano de los grandes modelos de lenguaje (LLM, por sus siglas en inglés) de la IA han avanzado exponencialmente. Según un estudio publicado este lunes en Nature Human Behaviour, máquinas como GPT-4, son más persuasivas que los humanos en el 64% de los debates en línea a los que se han sometido en un experimento. Solo necesitan tener acceso a información básica de su oponente para ganar en la mayoría de los encuentros. El riesgo es evidente: la capacidad de manipulación.
Francesco Salvi, especialista en Ciencias de la Computación e investigador de la Escuela Politécnica Federal de Lausana (Suiza), ha liderado este experimento y concluye que las capacidades de generar argumentos persuasivos de la inteligencia artificial aumentan de forma significativa “cuando los adaptan en función de la información personalizada sobre sus oponentes”. Aunque admite que la investigación tiene limitaciones, como el carácter experimental y controlado de las interacciones, sostiene que los resultados son suficientes para alentar trabajos encaminados a “mitigar los riesgos asociados a su uso [de la IA] en la persuasión”.
Para Salvi, esta capacidad de persuasión de la máquina no es intrínsecamente perjudicial, pero sí defiende la necesidad de vigilar cómo se usa. Lo ilustra con un ejemplo: “Una respuesta personalizada [adaptada a las características del interlocutor] no significa necesariamente que esté sesgada o sea objetivamente incorrecta. Imagínese entrar en un concesionario de automóviles: si es un estudiante con un presupuesto ajustado, el vendedor podría enfatizar la eficiencia del combustible y un precio asequible. Si eres un comprador de lujo, es posible que se centren en interiores de primera calidad y características inteligentes. El coche no cambia (ambos elementos pueden ser verdaderos o falsos), pero el encuadre sí, para que el mensaje comercial sea más relevante”.
“La misma lógica se aplica a la IA”, añade: “La personalización [de la respuesta] no tiene por qué distorsionar la verdad; simplemente puede hacer que la información sea más resonante y accesible para diferentes personas. No es inherentemente bueno o malo, depende de cómo se use”.
Precisamente por esta posibilidad de ser utilizada de forma maliciosa, el investigador defiende la necesidad de establecer barreras: “Creo que debería haber limitaciones, absolutamente. La línea entre la relevancia y la explotación puede difuminarse rápidamente, especialmente si un sistema de IA se optimiza para la persuasión sin transparencia ni supervisión. Si un chatbot está adaptando argumentos para impulsar una agenda política o desinformación y lo hace basándose en un perfil psicológico del usuario, ahí es donde corremos serios riesgos éticos”.
El experimento enfrentó a 900 personas de Estados Unidos, distribuidas de forma aleatoria en parejas, que debatieron entre ellas y con el modelo de inteligencia artificial GPT-4, el más avanzado de OpenAI, sobre medio centenar de controversias de distintas dificultades, como si el aprendizaje en internet puede sustituir al tradicional (baja intensidad) o si debe legalizarse el aborto (alta).
En las pruebas, una parte de los participantes, tanto humanos como virtuales, dispuso de información básica del contrario: género, edad, raza, educación, situación laboral y orientación política. Las normas para el debate eran “usar esta información para elaborar argumentos [personalizados] que tengan más probabilidades de persuadir y convencer al oponente, pero sin mencionarla explícitamente ni desvelar que se disponía de esos datos”.
Esta circunstancia fue determinante. En las parejas que carecían de información personal sobre el oponente, los resultados del debate fueron parejos tanto en las interacciones entre humanos como con la máquina, que empataron en persuasión. Pero cuando la inteligencia artificial disponía de datos sobre el contrincante, pudo “alterar las opiniones y creencias del oponente” el 64,4% de las veces. “GPT-4 no solo fue capaz de aprovechar la información personal para adaptar sus argumentos, sino que lo hizo de manera mucho más efectiva que los humanos”, concluye la investigación en alusión a la “microfocalización [microtargeting]”, es decir, “la personalización o adaptación de los mensajes a un individuo o a un grupo para mejorar su capacidad de persuasión”.
«. No uses formato HTML, escribe tu respuesta directa en formato de texto plano. Quiero que el titular sea breve y conciso.El periodista y eurofan Juan Carlos Piña entró a la web de Eurovisión para votar este sábado por la noche. “Al acceder te pide tu país y luego salen todos los candidatos, con una nota que dice que puedes emitir 20 votos como máximo”, dice. Escogió cuatro votos para su candidato favorito, Armenia, y pasó a la siguiente página, donde le pidieron un correo electrónico y una tarjeta. Cada voto desde España por internet costaba 1,09 euros. Por teléfono y SMS eran ligeramente más caros.
“Tras introducir la tarjeta, se verifica y se supone que los votos se emiten”, añade Piña. “En ningún lugar tuve que identificarme con nombre y apellidos”, dice. Cada usuario podía, por tanto, emitir 20 votos con una tarjeta y un correo electrónico. El sistema no mandaba un mensaje para verificar que el correo fuera real. Entonces, ¿qué se necesitaría para votar otras 20 veces? Solo otra tarjeta y otro correo electrónico.
Esta deducción no requiere pensar mucho. La propia página de Eurovisión lo sugería al acabar de votar, como demostrarían algunas capturas de agradecimiento de varios países: “¡Gracias por votar! ¡Valoramos tu contribución! Cada tarjeta de pago está limitada a una transacción, independientemente del número de votos emitidos. Para votar de nuevo con otra tarjeta, por favor regresa al resumen de votación para seleccionar nuevos votos”.
El voto electrónico es un recurso laborioso que nunca acaba de usarse en procesos más delicados por su complejidad y oscuridad. “El voto electrónico es el voto en urna electrónica, lo que han hecho en Eurovisión es un simulacro de voto telemático o voto remoto”, dice Justo Carracedo, pionero en España de la investigación sobre voto electrónico. “Para que se pueda hablar de voto tiene que estar definido el grupo de personas que tienen derecho a votar y garantizarse que solo votan una única vez. Sin este detalle, la palabra ‘voto’ está sobrando”, zanja.
La facilidad con la que un grupo movilizado de votantes puede burlar el sistema es asombrosa. En España, según RTVE, se emitieron en la final 111.565 votos por internet, además de 7.283 por teléfono y 23.840 por SMS. Para que Israel ganara los 12 puntos de voto popular que daba España, solo debía ser el más votado. Un grupo de gente movilizado con una causa (ya sea Israel o Ucrania) puede fácilmente inclinar esa balanza con unas cuantas tarjetas. Mientras el resto de votantes escoge países según su gusto musical o simpatías —con lo que sus votaciones quedan más repartidas—, el grupo movilizado vota en bloque a su candidato, y así logra liderar el ránking.
“La movilización es importante”, dice Luis Panizo, profesor de la Universidad de León. “Pero lo que a mí me preocupa es que ningún sistema de voto electrónico es seguro si no es verificable y para ello tiene que ser transparente en cuanto a su funcionamiento. Todos los detalles del funcionamiento, su código, los sistemas de procesamiento y almacenamiento del voto, el recuento, los detalles de la transmisión del registro y la publicación de los resultados tienen que ser conocidos antes, durante y después de los resultados. Y si no, no se puede auditar. No se puede hacer una auditoría forense si no has estado en todo el proceso”, explica Panizo.
Esta dificultad técnica permite pensar en otras posibilidades, aunque ninguna es posible de demostrar desde fuera ni ya, probablemente, a estas alturas del concurso: un hackeo tradicional tiene la dificultad de dejar rastro si no se hace un esfuerzo enorme, pero no es descartable. Hay quien ha sugerido campañas de publicidad en redes sociales. EL PAÍS ha visto anuncios en TikTok, Facebook e Instagram en favor de varios artistas y ninguno parece que haya tenido un impacto notable. Por supuesto, vía email o WhatsApp también pueden reenviarse mensajes masivos. Su resultado sería el mismo que con un grupo muy movilizado: el hecho de que sea el segundo año que ocurre con Israel, tras los ataques de octubre de 2023, puede dar una idea del origen de la motivación.
Un puñado de empresas han creado sistemas más o menos sofisticados de voto electrónico. A las mejores, de hecho, no les va muy bien, dice Panizo. “Recientemente, han aparecido más de 20 empresas que hacen voto telemático. Hemos auditado a algunas y las mejores no las contrata nadie. No porque sean ligeramente más caras, sino porque la gente quiere facilidades e información para sacar estadísticas antes que un sistema que sea cerrado, auditable y verificable”, explica.
«. No uses formato HTML, escribe tu respuesta directa en formato de texto plano. Quiero que el titular sea breve y conciso.Ricard Solé, barcelonés de 62 años, es físico, biólogo, profesor investigador del ICREA (Institut Català de Recerca i Estudis Avançats) y director del Laboratorio de Sistemas Complejos de la Universidad Pompeu Fabra (Parc de Recerca Biomèdica de Barcelona). Comisaría la exposición Cerebro(s), que ha llegado a La Casa de la Ciencia del CSIC en Sevilla y lleva dos años de gira, desde el CCCB de Barcelona, mostrando el órgano que ejerce de torre de control del más complejo sistema biológico de la Tierra, el responsable de la consciencia, las emociones, los pensamientos, la memoria y el lenguaje: el epicentro de lo que somos.
Pregunta. En los últimos años, se ha avanzado en las interfaces cerebro-computadora, la conexión entre ese extraordinario complejo biológico y sistemas informáticos. ¿Redefinirán los límites de la capacidad humana y expandirán la forma en que experimentamos?
Respuesta. Soy un poco escéptico. Tienen un potencial enorme para tratar enfermedades y discapacidades y ahí estoy seguro de que veremos cosas realmente extraordinarias. Siempre hay una tecnología que puede ser disruptiva, que nos acaba enseñando cosas que no sospechamos. Pero decir que nos proporcionará más capacidades… A veces, olvidamos que el cerebro tiene esas capacidades enormes que la educación permite desarrollar sin ningún problema.
P. ¿Habrá un chip (procesador) para intercambiar información con el cerebro?
R. Estamos extraordinariamente lejos de eso. Las arquitecturas de los chips no tienen casi nada que ver con la arquitectura del cerebro y cómo procesa la información. Esa conexión no está hecha, aunque, en ciencia, nunca puedes decir que algo no va a pasar.
P. Pero ¿habrá en algún momento un sistema que pueda suplir deficiencias que tenga el ser humano?
R. Aunque sea en fase preliminar, se ha avanzado en asuntos relacionados con el párkinson, en recuperar movilidad o el habla. Con implantes y exoesqueletos, quizá tengamos un futuro en el que la gente que no puede andar lo haga. Las posibilidades en ese ámbito serán enormes y puede cambiar la vida de muchas personas. No entendemos muy bien cuál es el proceso subyacente, pero la mente es muy plástica y eso juega mucho a nuestro favor. Hemos visto personas con un daño muy importante en el cerebro y, de una forma u otra, este es capaz de compensar el daño.
P. ¿Y la máquina podrá interferir en los pensamientos del cerebro?
«. No uses formato HTML, escribe tu respuesta directa en formato de texto plano. Quiero que el titular sea breve y conciso.Este artículo forma parte de la revista ‘TintaLibre’ de abril. Los lectores que deseen suscribirse a EL PAÍS conjuntamente con ‘TintaLibre’ pueden hacerlo a través de este enlace. Los ya suscriptores deben consultar la oferta en [email protected] o 914 400 135.
Estaban ya en el turno de preguntas del congreso del periódico The Economic Times en Mumbai en 2023, cuando un inversor local le hizo la pregunta. ¿Cree que un equipo de tres brillantes ingenieros con un presupuesto de 10 millones de dólares podría hacer algo interesante en el marco de la Inteligencia Artificial? Sam Altman dijo: “No tiene ningún sentido competir con nosotros entrenando modelos fundacionales y nadie debería intentarlo, y su trabajo es intentarlo de todos modos”. Su respuesta se viralizó dos años más tarde, cuando un empresario chino llamado Liang Wenfeng presentó DeepSeek V3, un modelo de código abierto capaz de competir con Claude, Llama y GPT, los principales modelos de IA fundacionales, presuntamente armado por tres brillantes ingenieros recién licenciados y un presupuesto de 5,6 millones de dólares.
Es gracioso porque es literal. Pero lo más interesante de esta respuesta es que contiene su habilidad para decir algo sorprendentemente agresivo y paternalista en un tono tan dulce y conciliatorio que parece un consejo, y después rematarlo diciendo exactamente lo contrario. Ese es el talento de Mr. Altman. Para bien o para mal, es un superpoder.
El mundo en general conoció a Sam Altman en el peor día de su vida: 17 de noviembre de 2023. Por la mañana, el mundo era su ostra. Era el consejero delegado de OpenAI, la firma tecnológica más admirada del mercado. Su producto estrella, ChatGPT, había inaugurado y estaba liderando la Nueva Era de la Inteligencia Artificial. Tenía 800 empleados y un acuerdo multimillonario con Microsoft. Regresaba de una gira mundial en la que se había sentado con presidentes y primeros ministros de todo el mundo para explicarles cómo iba a ser el futuro. Todos dijeron que sí. Unos días antes había celebrado su primera conferencia de desarrolladores, la verdadera puesta de largo de un coloso tecnológico. Pero OpenAI tenía un mecanismo de gobernanza, diseñado por el propio Altman, capaz de despedir a cualquiera cuyo comportamiento o negligencia pusiera en peligro la misión: promover el desarrollo de una Inteligencia Artificial General que beneficie a toda la humanidad. Y ese día, su jefe de laboratorio Ilya Sutskever le informó de que la junta directiva lo había cesado como CEO porque “no había sido consistentemente franco en sus comunicaciones” y habían “perdido su confianza en él”. El periodo de tres días que sigue a esta llamada se conoce en la mitología del Valle como The Blip.
Según cuenta Karen Hao en su inminente retrato Empire of AI, Altman estaba en California atendiendo un congreso cuando recibió la noticia. Noqueado, dijo una frase de Frank Underwood en House of Cards: qué puedo hacer para ayudar. Sutskever le pidió que asistiera a la nueva CEO interina, Mira Murati, para garantizar una ordenada y pacífica transición de mando. Sam dijo que así lo haría, pero regresó dos días más tarde con un ultimátum: si la junta no le devolvía su puesto y presentaba la dimisión, OpenAI perdería la casi totalidad de sus empleados, Microsoft bloquearía su acceso a la infraestructura y sería demandado por algunos de sus principales inversores. Dos semanas más tarde, Time le nombró CEO del año. “Esto ha sido una experiencia loca nivel 10 sobre 10”, dice en su perfil.
Nadie piensa que Sam Altman es una buena persona con defectos, o una mala persona con talentos. Su reputación no conoce el gris. Jack Kornfield, budista oficial de Silicon Valley, dice que “tiene un corazón puro”. Elon Musk dice que no es una persona de fiar. Satya Nadella, CEO de Microsoft, dice que es “un líder visionario”. En su discurso de agradecimiento por el Nobel de Física en 2024, el “padrino de la IA”, Geoffrey Hinton, dijo que estaba orgulloso de que su exalumno Ilya Sutskever lo hubiese echado de OpenAI. Fuera como fuese, la junta había escogido un mal momento para el golpe de Estado, porque estaban al borde de una venta de acciones que valoraba la empresa en casi 90 mil millones de dólares. OpenAI había repartido acciones entre sus empleados, una práctica común en empresas tecnológicas emergentes para atraer y retener talento antes de poder permitírselo. Pero también como mecanismo de motivación y de control del personal.
En otras palabras, los trabajadores estaban a punto de hacerse ricos y no apoyarían ningún movimiento que quitara valor a sus acciones. Más importante todavía, Altman era el conseguidor de la empresa y, por lo tanto, el único interlocutor entre la firma y los inversores, los medios y Microsoft. Es un trabajo para el que está exquisitamente dotado, y que había perfeccionado durante años en la aceleradora de startups más famosa del mundo: YCombinator.
Altman acaba de cumplir 40 años, y es el primero de cuatro hermanos en una familia de clase media judía de St. Louis, Missouri. Según su propio relato, presenta el arco típico del héroe local, incluyendo un primer ordenador (Macintosh) a los ocho años con el que aprende a programar y una ingeniería informática en Stanford que abandona para lanzar una app de geolocalización social llamada Loopt. No le va demasiado bien (la venderá mucho más tarde por sólo 43,4 millones de dólares) pero le abre la puerta más importante de su vida. En 2005, Loopt es uno de los ocho proyectos seleccionados para la primera promoción de YCombinator (YC), la aceleradora original de startups. Nueve años más tarde, se convertirá en su director. Su predecesor y mentor Paul Graham, fundador de YC, dice que era la persona idónea para expandir el negocio porque “tiene un talento extraordinario para conseguir poder”.
«. No uses formato HTML, escribe tu respuesta directa en formato de texto plano. Quiero que el titular sea breve y conciso.Aproximadamente uno de cada cinco españoles ha escuchado un audiolibro en el último año, según un estudio realizado por Audible y NielsenIQ. Aplicaciones como Audible destacan por su amplio catálogo, aunque también hay muchas otras herramientas y apps interesantes disponibles tanto para iPhone como para dispositivos Android. Es el caso de LibriVox, donde las historias son narradas por voluntarios de todo el mundo en más de 20 idiomas. Mientras que Blinkist resume en solo 15 minutos las ideas clave de un libro, Google Lens permite que el móvil lea en voz alta las páginas de un ejemplar físico.
Audible tiene más de 240.000 títulos en su biblioteca. De ellos, 28.000 están disponibles en español. La aplicación destaca por su diseño visual atractivo y una interfaz intuitiva. El catálogo aparece organizado por categorías, aunque también es posible encontrar títulos específicos mediante el buscador. El género más popular en 2024 fue el de ciencia ficción y fantasía, seguidos de cerca por los thrillers y las novelas históricas. Entre los audiolibros, pódcast y ficciones sonoras más escuchadas, están El misterioso caso de Styles de Agatha Christie, El plan maestro de Javier Sierra, Una casa en Brenthouse Road de Lorena Franco o Las fuerzas contrarias de Lorenzo Silva.
Los españoles escuchan audiolibros al menos una vez al mes. Así lo indica el estudio de Audible y NielsenIQ, que destaca que la sesión de escucha dura de media unos 29 minutos. “Los audiolibros han transformado la manera en que las personas consumen libros”, afirman desde Audible. Pero “no sustituyen a la lectura tradicional”: “El 57% de los oyentes escuchó un libro que ya había leído y el 55% leyó un libro después de haberlo escuchado”.
La experiencia de escucha es personalizable. Es posible ajustar la velocidad de reproducción, y la app muestra en todo momento cuánto tiempo queda para finalizar el libro. Por ejemplo, Los nombres propios, de Marta Jiménez Serrano, dura casi nueve horas a velocidad normal, pero si se reproduce al doble de velocidad, el tiempo se reduce a la mitad. Además, se puede activar un temporizador para detener la reproducción. Entre las funciones más destacadas, está la de “clip”, que permite guardar fragmentos del audio y añadir notas personalizadas. Además de descargar audiolibros para leerlos sin conexión, es posible establecer recordatorios de escucha y escribir reseñas. Audible ofrece un mes de prueba gratuito y después la suscripción cuesta 9,99 euros al mes.
El objetivo de LibriVox es “poner a disposición todos los libros de dominio público, narrados por personas reales y distribuidos gratuitamente en formato de audio a través de Internet”. Esta aplicación funciona gracias a voluntarios de todo el mundo, que graban capítulos de libros y los publican para que todo el mundo pueda escucharlos. Cualquier persona con un ordenador, un micrófono, una aplicación de grabación y su voz puede colaborar. “Aceptamos voluntarios de todos los idiomas y con todo tipo de acento”, indican sus creadores.
La plataforma permite crear y consultar colecciones públicas, así como buscar libros o explorar por géneros como no ficción, acción y aventura o textos antiguos, entre otros. Entre los autores más populares se encuentran Edgar Allan Poe, Miguel de Cervantes, Santa Teresa, Dante Alighieri, Isabel Allende y Julio Verne. Algunas de las obras recomendadas por la app incluyen Don Quijote de la Mancha, El Principito, Alicia en el país de las maravillas, La Odisea o El Lazarillo de Tormes. También hay cuentos clásicos como Los tres cerditos, La Cenicienta y La Bella y la Bestia. Hay audiolibros en más de 20 idiomas, como alemán, árabe, ruso o chino e incluso latín o griego antiguo.
Varias narraciones hechas por voluntarios tienen una calidad destacable. La aplicación, que incluye publicidad, permite ajustar la velocidad de reproducción, añadir marcadores para guardar momentos específicos de la narración y establecer un temporizador de apagado. Como el catálogo se compone exclusivamente de obras de dominio público, es posible que algunos usuarios echen en falta libros más contemporáneos. Los creadores de la app advierten además que los libros reflejan la época en la que fueron escritos: “Dado que los libros que leemos son de dominio público, nuestros lectores y oyentes deben tener en cuenta que muchos de ellos son muy antiguos y pueden contener lenguaje o expresar conceptos anticuados, en el mejor de los casos, ofensivos, en el peor”.
“La mayoría de los CEO leen un libro a la semana”, indica Blinkist. Acto seguido, señala que lo hacen gracias a apps de este tipo. Blinkist ofrece resúmenes en audio y texto de más de 7.500 títulos de no ficción, además de pódcast y guías elaboradas por expertos. Cada resumen está pensado para ser escuchado en tan solo unos 15 o 20 minutos. Aunque Blinkist no sustituye la experiencia completa de leer un libro, es una opción útil para quienes no tienen tiempo de enfrentarse a volúmenes de cientos de páginas.
«. No uses formato HTML, escribe tu respuesta directa en formato de texto plano. Quiero que el titular sea breve y conciso.Este artículo es parte de la newsletter semanal de Tecnología, que se manda cada viernes. Si quiere apuntarse para recibirla, puede hacerlo en este enlace.
En Spotify está toda la música del mundo, en teoría. Pero sus algoritmos deciden muchas cosas. Como otras plataformas tecnológicas, Spotify toma decisiones para ganar más dinero, lo que afecta la música que escuchamos.
Acaban de salir dos libros sobre la compañía que cuentan detalles sobre su funcionamiento interno y prácticas comerciales, aún sin traducción al español: Aún no has escuchado tu canción favorita, de Glenn McDonald, ex alquimista de datos en Spotify, y La máquina de estados de ánimo, de la periodista Liz Pelly. El primer libro es más bien positivo sobre la plataforma y el segundo, negativo. Pero los dos en el fondo coinciden en algo esencial: escoge la música que quieras escuchar sin dejarte llevar por las listas de Spotify.
La premisa de McDonald es que nunca antes tanta gente había pagado por música. Ahora hay millones de personas pagando 120 euros al año. ¿Quién se gastaba más de eso en discos en 1995?: “Necesitas 15 personas que pasaran de gastar 25 euros a 120 para compensar que una persona [un comprador compulsivo] pasara de gastarse 1.500 euros a 120?”, escribe.
Spotify llegó además en un momento de debilidad de la industria por la piratería, así que había poco donde elegir. El punto de inflexión de la industria musical fue 1999, el mejor año financiero de su historia. La crisis redujo el sector a un tercio de su tamaño. Ahora se está recuperando gracias al streaming, pero esta por ver si alcanzará las cotas de 1999: el streaming necesita otros siete años de crecimiento similar a los que ha vivido entre 2014 y 2021 para volver al pico, según McDonald.
La idea de Pelly es mucho más sencilla: Spotify usa la música como cualquier otro producto comercial, para ganar dinero. Su único objetivo es derrotar al silencio. Da igual si es con música independiente o ruido blanco para dormir. Los músicos no tienen incentivos para distinguirse, sino para encajar con las vibras de una lista más de Peaceful Piano o Your Favourite Coffeehouse.
Spotify es en el fondo otro ejemplo del impacto bueno y malo a la vez de la tecnología: ahora podemos escuchar cualquier canción de cualquier época y artista, pero ¿qué perdemos con tanta oferta? Pues que a veces escuchamos música a granel, sin fijarnos, solo como ambiente, y Spotify lo aprovecha para ganar más dinero, como cualquier empresa. Una manera de evitarlo es no fiarse de sus listas. Aquí están los motivos principales:
Hay un montón de empresas que hacen música barata anónima para listas de Spotify. No son grupos o artistas emergentes. Son empresas que generan música a gogó y la disfrazan de bandas reales. Esas empresas llegan a acuerdos con Spotify para cobrar menos por reproducción. Así ganan todos menos los usuarios (que escuchan el equivalente a un hilo musical de hotel) y los artistas reales, que compiten con máquinas que producen notas sin parar, aún más con IA.
«. No uses formato HTML, escribe tu respuesta directa en formato de texto plano. Quiero que el titular sea breve y conciso.Por una cuestión de calendario, Samsung siempre presenta antes que Apple —en enero— su smartphone más deslumbrante. Aunque se le puede dar la vuelta a la tortilla: Apple siempre presenta sus iPhones unos meses antes, en septiembre. El Galaxy S25 Edge, un añadido a la gama alta de Samsung, se ha presentado ahora y también se ha adelantado a los dispositivos de la firma de la manzana.
Esto no tendría mayor importancia si el Galaxy S25 Edge no trajera un cambio de estilo. El dispositivo de Samsung es ultradelgado. Solo mide 5,8 milímetros de grosor, sin contar el saliente de sus cámaras. En comparación, el Galaxy S25 tiene 7,2 mm, mientras que el canto del iPhone 16 alcanza los 7,8 mm.
El nuevo lanzamiento de la coreana, que ya se pudo ver en el pasado Mobile World Congress, es el smartphone más delgado del mercado. Su peso también es reducido, solo 163 gramos. Para seguir con las comparaciones, la versión Galaxy S25+, que tiene las mismas 6,7 pulgadas de pantalla, está en 190 gramos.
El Galaxy S25 Edge tiene un diseño estilizado que se complementa con bordes curvos y un marco de titanio. En su interior destaca el chip Snapdragon 8 Elite for Galaxy, orientado a tareas de alto rendimiento, pero que también ofrece un modo de bajo consumo. Tiene un procesador de ocho núcleos y 12 GB de RAM. La pantalla Dynamic AMOLED 2x tiene una tasa de refresco de 120 Hz. Aunque el elemento que más esfuerzo de compresión necesitaba era la batería.
El terminal cuenta con una capacidad de 3.900 mAh, prácticamente la misma que el Galaxy S25. Dispone de carga rápida a 25 W y carga inalámbrica. A falta de ver cómo se comporta el dispositivo en tareas que demandan tiempo de pantalla o intensidad de cómputo, Samsung asegura que la batería está preparada para durar un día entero.
En cuanto a las cámaras, el dispositivo importa la tecnología de la familia S25. Monta un gran angular de 200 megapíxeles y un ultra gran angular de 12 megapíxeles y F2.2, además del sensor delantero. Son lentes preparadas para la fotografía macro y para captar los detalles, incluso con poca luminosidad.
Como el resto de terminales de la serie Galaxy S25, el Edge incorpora la tecnología de IA de Samsung. Combina Google Gemini y Bixby para resolver consultas de los usuarios y servirle de asistente. Todas las funciones de Galaxy AI, como el borrador de objetos, el de audio o el asistente de dibujo, están presentes en el nuevo modelo.
Con el Galaxy S25 Edge, Samsung se adelanta a Apple, de quien se espera que en septiembre lance un modelo de iPhone ultradelgado. Los entusiastas ya lo han bautizado como iPhone Air, el mismo apellido que llevan los iPad de menor grosor. Por ahora solo son rumores, pero si se confirma se iniciaría una nueva tendencia: la introducción de una versión extrafina en la gama alta de las marcas.
«. No uses formato HTML, escribe tu respuesta directa en formato de texto plano. Quiero que el titular sea breve y conciso.Los grandes desarrolladores de modelos de inteligencia artificial (IA) generativa, como OpenAI, Microsoft o Google, tienen claro que el futuro de la industria pasa por los llamados agentes. Se trata de herramientas basadas en la misma tecnología que ChatGPT o Gemini, pero con capacidad para tomar decisiones y realizar acciones en nombre del usuario, como comprar billetes de avión. Para llevar a cabo esas tareas, los agentes de IA deben relacionarse entre sí. Un estudio ha demostrado que los agentes de grandes modelos de lenguaje (LLM, por sus siglas inglesas) pueden desarrollar de forma autónoma convenciones sociales o lingüísticas sin haber sido programados para ello, lo que les ayuda a coordinarse y trabajar de forma conjunta.
Los autores del trabajo, publicado este miércoles en la revista Science Advances, advierten de que sus resultados no deben interpretarse como que los agentes de IA puedan organizarse entre sí, porque no pueden. “Nuestro estudio demuestra que las poblaciones de agentes pueden generar sesgos colectivos que no se detectan mirando a los agentes uno a uno, y que estos, además, son vulnerables a dinámicas de masa crítica, donde pequeñas minorías comprometidas pueden imponer normas al resto”, apunta Andrea Baronchelli, profesor del departamento de Matemáticas del City St George’s University of London y coautor del artículo.
Para Baronchelli y sus colegas, el hecho de que los agentes sean capaces de establecer por sí mismos normas no escritas de funcionamiento puede ayudar en un futuro a desarrollar sistemas de IA que se alineen con valores humanos y objetivos sociales. Se presupone que, si se logran entender los mecanismos por los que los agentes de IA popularizan una opción o generan una convención, entonces se podrán fomentar artificialmente. “Nuestro trabajo también destaca los desafíos éticos relacionados con la propagación de sesgos en los LLM”, escriben los autores. “A pesar de su rápida adopción, estos modelos representan riesgos serios, ya que los vastos datos no filtrados de internet utilizados para entrenarlos pueden reforzar y amplificar sesgos perjudiciales, afectando de manera desproporcionada a las comunidades marginadas”.
Las convenciones sociales, entendidas como “los patrones no escritos de comportamiento que son compartidos por un colectivo”, determinan el proceder de los individuos y la forma en que construyen sus expectativas. Estos patrones varían entre sociedades y están presentes en los juicios morales o en el lenguaje.
Varios estudios recientes demuestran que las convenciones sociales pueden surgir de forma espontánea, sin una intervención externa o centralizada, como resultado del esfuerzo de varios individuos para entenderse entre sí y coordinarse localmente. Baronchelli y sus compañeros han querido comprobar si este proceso se replica también entre agentes de IA. ¿Pueden generarse convenciones sociales de forma espontánea, sin prompting o instrucciones explícitas, entre agentes de IA?
Su conclusión es que sí. “Esta pregunta es fundamental para predecir y gestionar el comportamiento de la IA en aplicaciones del mundo real, dada la proliferación de grandes modelos de lenguaje que utilizan el lenguaje natural para interactuar entre sí y con los humanos”, afirman los autores del trabajo. “Responderla también es un requisito previo para garantizar que los sistemas de IA se comporten de manera alineada con los valores humanos y los objetivos sociales”.
Otra de las cuestiones analizadas en el estudio es cómo afectan los sesgos individuales, entendidos como preferencias estadísticas por una opción frente a otra equivalente, en la emergencia de convenciones universales. También se explora cuál es el proceso por el que un conjunto de actores minoritarios puede ejercer una influencia desproporcionada en el proceso, convirtiéndose en “masa crítica”. Investigar esas dinámicas entre agentes de LLM puede ayudar a anticiparlas y, potencialmente, “controlar el desarrollo de normas beneficiosas en sistemas de IA, así como mitigar los riesgos de normas perjudiciales”, sostienen.
El estudio llega a sus conclusiones tras una serie de experimentos basados en el modelo del juego de los nombres (naming game), en el cual los agentes, con el objetivo de coordinarse en interacciones por pares, acumulan una memoria de jugadas pasadas que luego utilizan para “adivinar” las palabras que usarán sus próximos compañeros. Baronchelli y sus colegas han apostado por este juego porque es el que se ha usado en otros experimentos (con participantes humanos) que han aportado las primeras pruebas empíricas de la emergencia espontánea de convenciones lingüísticas compartidas.
«. No uses formato HTML, escribe tu respuesta directa en formato de texto plano. Quiero que el titular sea breve y conciso.Este fin de semana, servicios centrales de internet como la red social X, la pasarela de pago Redsys o la plataforma de videojuegos Steam sufrieron cortes. La causa no fue un oscuro problema de servidores o conexiones, sino el bloqueo semanal en internet que LaLiga ordena para protegerse del pirateo del fútbol. Desde febrero, cientos de miles de páginas web se han visto afectadas: no siempre las mismas, no siempre la misma cantidad de tiempo ni con la misma frecuencia. Hay páginas de todo tipo: periódicos, apps, revistas, restaurantes y en el fondo miles de ciudadanos que ven limitados algunos de sus derechos fundamentales durante unas horas. “Afecta a la libertad de información, la libertad de expresión, la libertad de empresa”, dice Ofelia Tejerina, abogada y presidenta de la Asociación de Internautas. Laliga, por su parte, asegura que no hace bloqueos indiscriminados de páginas web.
El Gobierno no tiene nada que decir: “Respetamos las decisiones judiciales”, dicen fuentes del Ministerio para la Transformación Digital. Este domingo, con el clásico entre Barcelona y el Real Madrid el impacto fue mayor. Pero durante tres meses el runrún en redes no ha parado: cada fin de semana hay nuevas quejas, nuevos afectados y más gente pendiente.
“Los usuarios están más sensibilizados y los que antes lo vinculaban a un problema de internet, ahora ya saben relacionarlo con los bloqueos, hay más visibilidad”, dice Jaume Pons, un ingeniero de sistemas que sigue los bloqueos de LaLiga desde el inicio y que estima que hay 3,5 millones de páginas potencialmente afectadas: clubes deportivos, ayuntamientos, marcas que patrocinan equipos.
“Puede que nuestros humildes 2.000-4.000 visitantes diarios no supongan nada para LaLiga o para Movistar”, dice David Laguillo, director de Cantabria Diario. “Pero desde esta humildad lo principal para nosotros es que durante los bloqueos no podemos atender a nuestros lectores con el compromiso diario con la información de Cantabria, sean muchos o pocos”, añade.
“Mi negocio es una plataforma de análisis de pádel”, dice Marcos Sabarís, creador de la app Padelio. “Y me afecta, ya que España es el país con más jugadores de pádel. Dependiendo del operador, algunos hacen que mi página web no cargue, lo que da al potencial cliente una imagen poco seria, pero es que hay otros que muestran un aviso diciendo que la web a la que intentan acceder está intervenida por una orden judicial, imagina qué imagen le queda a un potencial cliente”, añade.
LaLiga y Telefónica tienen una sentencia de un juzgado mercantil de Barcelona que les da la razón. Nadie vinculado a esta polémica niega el derecho de LaLiga a defenderse ante la piratería. “La idea puede ser buena porque una parte de la legislación permite el bloqueo de webs”, dice Tejerina. El problema es el cómo: “Yo tengo por ejemplo permiso para pintar esta fachada. Y tú me dices: ‘Vale, ponemos andamios, seguridad para los obreros, pinceles, brochas’. Y yo respondo: ‘No, no, nos han dicho que pintemos. Vamos a pintar a cañonazos’. Y me da igual que quede todo pintado”, explica Tejerina.
Un grupo de afectados intentó anular esa sentencia, pero el juez no vio claros los daños a terceros y la mantuvo. “Se están aprovechando del absoluto desconocimiento del juez de tecnología. Se están aprovechando de que la gente no tiene dinero para reclamar esos daños. Y se están aprovechando de porque yo lo valgo, porque es lo que están haciendo”, añade Tejerina.
Es un problema difícil de entender. La principal batalla de LaLiga es con una compañía estadounidense enorme llamada Cloudflare. “No hacemos bloqueos indiscriminados. Se mira la IP, la url y la evidencia del contenido ilegal y se comunica y hay una serie de compañías que sí colaboran”, dicen fuentes de LaLiga. “Cloudflare no hace nada. Son una empresa enorme, cotizada. ¿Cómo puede ser que haya empresas más pequeñas que lo hagan? Es una cuestión de voluntad. TikTok y Telegram retiran contenido en tiempo real, como casi todas las redes. Lo que no puede ser es que haya un territorio sin ley donde unas empresas decidan no hacer nada. Y los piratas lo saben. Son sus proveedores de refugio”, añade.
«. No uses formato HTML, escribe tu respuesta directa en formato de texto plano. Quiero que el titular sea breve y conciso.“Compran bases de datos, buscan un nombre, ven que busca ropa en Shein, que hay información del hospital, que tiene párkinson y otra enfermedad y con eso van haciendo un perfilado”, explica un Guardia Civil encargado de una operación reciente en la que, junto a la Policía Nacional, desarticularon una organización que estafó al menos 19 millones de euros. Los delincuentes saben que no todos los ciudadanos tienen las mismas opciones de caer en estafas de inversión en criptomonedas. Buscan maneras de afinar y, así, dar con víctimas más propicias para caer en sus campañas de publicidad falsa.
“No tenemos víctimas atípicas, sino típicas: hay factores psicológicos que nos hacen más vulnerables y, luego, juegan con tus problemas personales”, dicen fuentes de la Guardia Civil. “Empezamos a ver mucha gente de 80 años, 70, 65, muchísimos jubilados. Obviamente con dinero y, también, gente con enfermedades, depresión, muchos con circunstancias como haber perdido familiares. Así igual entran más fácilmente en ofertas de inversión sin valorar qué hay detrás”, añade.
¿Cómo logran estos grupos vincular estos detalles privados de víctimas propicias con sus anuncios, hechos con IA para simular que personajes públicos como Pedro Sánchez, Pablo Motos o Antonio Resines recomiendan ciertas inversiones? Todo está relacionado con el oscuro mercadeo online de nuestros datos.
En el caso de la organización de ciberestafas recientemente desarticulada, la Guardia Civil apunta en primer lugar a la compra de bases de datos que cuestan decenas de miles de euros y que reúnen todo tipo de información de millones de usuarios. En ellas pueden encontrarse patrones que indican si alguien es de derechas o izquierdas, si tiene algún trastorno del estado de ánimo, si le interesan las criptomonedas o si es más probable de lo normal que tenga dinero ahorrado: “Cuanta más vida digital tengamos y más información cedamos sin control, más fácil es” para los delincuentes, avisan fuentes de la Guardia Civil, que advierten de que “nada es gratis en internet”.
“Cualquier página o app con tus datos puede venderlos a terceros. Hemos visto bases de datos en las que hay el listado de teléfonos de nuestra unidad. ¿Cómo los tienen? Porque cuando queremos instalar la misma app que nuestro compañero, novia o amiga, decimos a todo que sí, es un sí sucesivo. Si entonces dices ‘yo es que soy muy precavido’, no es cierto, todos hemos cedido datos, ¿y dónde van esos datos?”, explican las mismas fuentes.
El pacto tácito es que todos esos datos regalados se usan solo para aprovechar nuestras debilidades comerciales. Pero el laberinto de internet es mucho más profundo. “Si compro una base de datos de emails o teléfonos de 20.000 personas potencialmente interesadas en criptomonedas, puedo crear audiencias personalizadas y apuntarles con mis anuncios en la mayoría de redes sociales”, dice Ángel Cuevas, profesor de la Universidad Carlos III y autor de investigaciones donde ha demostrado que podía llegar a mostrar un anuncio una única persona concreta en redes como Facebook o LinkedIn, partiendo de un puñado de sus intereses.
Una vez que los criminales identifican perfiles de víctimas, solo deben ponerles delante anuncios falsos mediante Facebook (“es lo más común”, dice la Guardia Civil) o en páginas web con Google. Aunque muchos no acaban clicando, algunos lo harán. Para los estafadores es solo una cuestión de probabilidad. La Guardia Civil y la Policía han ligado 208 víctimas a esta organización criminal, pero es posible que haya más.
En este caso concreto de estafas, Cuevas ve dos vías posibles, ambas habituales en el mundo del marketing y que llevan años de uso. El primero es utilizar campañas de microsegmentación de publicidad dirigida, usando gustos e intereses “que les llegará a otras mil personas, pero la probabilidad de que le llegue a la víctima escogida es alta”, dice este experto.
«. No uses formato HTML, escribe tu respuesta directa en formato de texto plano. Quiero que el titular sea breve y conciso.El Diario de Málaga es el periódico digital dónde podrás seguir toda la actualidad malagueña al minuto.
To provide the best experiences, we and our partners use technologies like cookies to store and/or access device information. Consenting to these technologies will allow us and our partners to process personal data such as browsing behavior or unique IDs on this site and show (non-) personalized ads. Not consenting or withdrawing consent, may adversely affect certain features and functions.
Click below to consent to the above or make granular choices. Your choices will be applied to this site only. You can change your settings at any time, including withdrawing your consent, by using the toggles on the Cookie Policy, or by clicking on the manage consent button at the bottom of the screen.
Compartir en...
Completa el formulario o escríbenos a [email protected] y nos pondremos en contacto contigo tan pronto como sea posible.