Stats
Stats
Close

IA: ¿Renacimiento o Riesgo? Google pide «sentido común» ante el auge de la inteligencia artificial.

La responsable de IA de Google, Pilar Manchón, defiende en Sevilla el potencial de la inteligencia artificial como herramienta para mejorar la vida humana, apelando a la necesidad de un desarrollo ético y responsable.

Pilar Manchón (Google) desde Sevilla: «La IA es un potenciador humano, no un peligro»

Sevilla, 26 de septiembre de 2025. En una mañana que huele a azahar y a futuro, eldiariodemalaga.es tuvo la oportunidad de entrevistar a Pilar Manchón, la mente sevillana que dirige la estrategia de Investigación en Inteligencia Artificial (IA) de Google. Manchón, desbordante de optimismo, aterrizó en su ciudad natal para compartir su visión sobre el presente y el futuro de la IA, en un momento crucial donde la ética y la regulación se debaten en foros internacionales.

La conversación se produce tras la reciente petición de más de un centenar de científicos y dirigentes a la ONU, exigiendo el establecimiento de "líneas rojas" para evitar los riesgos inaceptables de la IA. Manchón, sin embargo, se muestra confiada en el enfoque de Google. "Siempre hemos sido pioneros en seguridad. Anteponemos la seguridad a la velocidad, aunque eso suponga ir al ritmo del mercado, que es lo más difícil", explica. Para ella, la IA es una herramienta capaz de construir un mundo mejor, siempre y cuando se desarrolle con mesura, sentido común y tomando las medidas necesarias.

¿Humanizar la IA? Un arma de doble filo

Uno de los temas más controvertidos es la humanización de la IA. ¿Estamos poniendo en peligro las relaciones personales al recurrir a la IA como confidente? Manchón reconoce que la humanización es un proceso natural, pero advierte sobre los riesgos de perder la noción de que se está interactuando con un sistema artificial. "En algunos casos es muy beneficioso, como en algo tan doloroso como la soledad. Pero abusar de eso y perder la noción de que estás interaccionando con un sistema artificial genera un riesgo." La clave, según Manchón, reside en la transparencia y la educación del usuario. Es fundamental que las personas sean conscientes de que están hablando con una IA para que puedan tomar decisiones informadas y establecer sus propias líneas rojas.

La investigadora responde a las comparaciones que equiparan la IA con un coche sin frenos, afirmando que lo crucial es quién conduce, qué vehículo y en qué condiciones. "Solo personas totalmente educadas, que tienen información y control, pueden asumir los riesgos de cualquier herramienta." Empresas como Google, subraya, deben dedicar recursos a educar sobre el uso de la IA, optimizarla y permitir que las personas evolucionen con ella. "La IA aumenta nuestras capacidades, es un potenciador humano", concluye.

El optimismo desbordante de Pilar Manchón, directora de estrategia de IA en Google, es, cuando menos, inquietante. Si bien su visión de la IA como un «potenciador humano» es un relato atractivo, resulta difícil no verla como una estrategia de marketing para desviar la atención de los riesgos inherentes a esta tecnología. Es ingenuo pensar que la «mesura» y el «sentido común» serán suficientes para regular un campo en constante evolución, impulsado por intereses económicos colosales y con implicaciones geopolíticas evidentes. El discurso del «coche sin frenos» puede ser simplista, pero la responsabilidad no recae únicamente en el conductor, sino también en el fabricante que omite las advertencias y potencia la velocidad sin garantizar la seguridad. Google, como líder en este sector, debería ser más proactivo en la promoción de un debate público y transparente sobre los límites éticos y legales de la IA, en lugar de centrarse únicamente en sus beneficios potenciales.

La «humanización» de la IA, mencionada por Manchón, es un síntoma preocupante de nuestra creciente dependencia tecnológica. Aunque reconoce el riesgo de «perder la noción de que estás interaccionando con un sistema artificial,» la solución que propone – la «transparencia y la educación del usuario» – parece insuficiente. ¿Realmente podemos esperar que el usuario medio sea capaz de discernir las sutilezas de un algoritmo diseñado para influir en sus decisiones y emociones? La verdadera transparencia exigiría un escrutinio público de los algoritmos y una regulación mucho más estricta sobre el uso de datos personales. De lo contrario, nos arriesgamos a construir un futuro en el que la inteligencia artificial, lejos de «potenciar» nuestras capacidades, las termine diluyendo en una simulación de relaciones y emociones artificiales.

Más noticias de la sección de Tecnología

¿Sacrificamos la calidad informativa por datos? Experta advierte que la obsesión por las métricas amenaza la individualidad y riqueza del...
La UE estrena la ley DSA con una multa millonaria a X por incumplir normas de transparencia, mientras TikTok evita...
¿Podría la IA decidir las próximas elecciones? Estudios revelan su capacidad para alterar la intención de voto, planteando interrogantes sobre...
Australia prohibirá el acceso a redes sociales a menores de 16 años en diciembre, generando un debate sobre protección infantil...
¿Código escrito por IA? La inteligencia artificial irrumpe en el desarrollo de software, transformando roles y habilidades. Málaga se prepara...
La tecnología de renderizado 3D que animó "Toy Story" ahora impulsa la precisión de los drones militares, gracias a un...
Corea del Sur desmantela una red de ciberespionaje que hackeó miles de cámaras IP para vender vídeos íntimos, exponiendo la...
Científicos en Málaga logran restaurar la visión en pacientes con implantes cerebrales. La innovadora tecnología, liderada por un ex-Neuralink, abre...
En un mundo inundado de noticias falsas, Wikipedia cumple 25 años como un bastión de información fiable, celebrando un cuarto...
Málaga se prepara para la web agéntica, una revolución digital con agentes de IA que prometen optimizar tareas y transformar...
Un experimento revela cómo los algoritmos de redes sociales pueden exacerbar la polarización política, pero también ofrece una solución: priorizar...

Compartir en...

WhatsApp
X
Facebook
LinkedIn
Contacta con nosotros