Stats
Stats
Close

¿Algoritmos secretos deciden tus ayudas? El Supremo debate la transparencia del software público.

El Supremo español debate hoy si la ciudadanía tiene derecho a conocer el código de algoritmos estatales que deciden el acceso a ayudas, en un caso clave sobre transparencia algorítmica.

¿Confiar a ciegas en la IA? El Supremo debate el acceso al código fuente de algoritmos que deciden sobre ayudas públicas

La transparencia algorítmica ha llegado al Tribunal Supremo en un caso que podría marcar un antes y un después en la relación entre la ciudadanía y la inteligencia artificial del Estado. Hoy, 8 de julio de 2025, se ha celebrado la vista oral del llamado «Caso Bosco», un litigio que enfrenta a la organización Civio con el Gobierno por la negativa a revelar el código fuente del algoritmo Bosco, responsable de determinar quién recibe el bono social eléctrico. La pregunta que resuena en los pasillos del alto tribunal es simple, pero trascendental: ¿tenemos derecho a saber cómo las máquinas toman decisiones que afectan a nuestras vidas?

El caso Bosco ha destapado una realidad inquietante: cada vez más decisiones gubernamentales se delegan en algoritmos, cajas negras cuyo funcionamiento interno permanece oculto al público. Esto plantea serias dudas sobre la transparencia y la rendición de cuentas de la administración pública. Si un algoritmo falla y deniega una ayuda a quien legítimamente la necesita, ¿cómo podemos reclamar si no sabemos cómo funciona dicho algoritmo? ¿Cómo podemos garantizar que no existen sesgos o errores en su programación? La opacidad algorítmica socava la confianza en las instituciones y pone en riesgo los derechos de los ciudadanos.

La defensa de la transparencia vs. la seguridad de los datos

El abogado Javier de la Cueva, representante de Civio, ha sido contundente en su alegato: «En una democracia plena, no es admisible el secreto del código fuente con los que se regulan los derechos de la ciudadanía». De la Cueva ha argumentado que el derecho a la propiedad intelectual no puede utilizarse como un «velo» para ocultar el funcionamiento de la Administración. Por su parte, el Abogado del Estado ha defendido la postura del Ministerio de Transición Ecológica, argumentando que la divulgación del código fuente podría poner en peligro datos personales de los beneficiarios y sentar un precedente peligroso. «¿Conceder acceso al código fuente de Bosco significa que habría que abrir también otros programas que usa la Administración?», se preguntó el letrado, planteando un debate sobre los límites de la transparencia.

El meollo del asunto radica en encontrar un equilibrio entre la transparencia algorítmica y la protección de la propiedad intelectual y la seguridad de los datos. ¿Es posible auditar el código fuente de un algoritmo sin revelar información sensible? ¿Pueden establecerse mecanismos de control que garanticen la transparencia sin comprometer la eficiencia de la administración pública? La respuesta a estas preguntas determinará el futuro de la relación entre la ciudadanía y la inteligencia artificial en España.

Un fallo con repercusión internacional

La decisión del Tribunal Supremo no solo tendrá efectos a nivel nacional, sino que servirá de referente para otros países que se enfrentan al mismo dilema. La transparencia algorítmica es un debate global, y el caso Bosco puede marcar un hito en la búsqueda de un marco legal que garantice los derechos de los ciudadanos en la era de la inteligencia artificial. Mientras tanto, la ciudadanía espera con expectación el veredicto del Supremo, consciente de que su futuro depende, en parte, de las líneas de código que se esconden tras las decisiones automatizadas del Estado.

El «Caso Bosco» no es simplemente un litigio, sino la **cristalización de una creciente desconfianza ciudadana hacia la administración algorítmica**. Que el Tribunal Supremo se vea en la tesitura de dirimir sobre el acceso al código fuente que decide el acceso a ayudas públicas es un síntoma preocupante del camino que hemos tomado. No se trata de demonizar la inteligencia artificial, sino de **exigir responsabilidades y transparencia en su implementación**. La excusa de la seguridad de los datos o la propiedad intelectual no pueden servir de cortina de humo para ocultar posibles sesgos o errores que perjudiquen a los ciudadanos. Permitir que algoritmos opacos tomen decisiones que impactan directamente en nuestras vidas es un ataque frontal a los principios básicos de la democracia y la rendición de cuentas.

El debate, sin embargo, no debería polarizarse en un enfrentamiento binario entre transparencia total y secreto absoluto. Existe un terreno intermedio donde la **auditoría independiente del código fuente**, por parte de expertos y con las debidas garantías de confidencialidad, podría ofrecer una solución viable. Negar el acceso a la «receta» de estas decisiones automatizadas bajo el pretexto de proteger la propiedad intelectual es un argumento insostenible cuando hablamos de la gestión de fondos públicos y derechos fundamentales. El verdadero desafío reside en **establecer mecanismos de control efectivos que permitan detectar y corregir posibles errores o discriminaciones**, garantizando que la inteligencia artificial sirva al interés general y no se convierta en una herramienta de opresión o injusticia.

Más noticias de la sección de Tecnología

¿Sacrificamos la calidad informativa por datos? Experta advierte que la obsesión por las métricas amenaza la individualidad y riqueza del...
La UE estrena la ley DSA con una multa millonaria a X por incumplir normas de transparencia, mientras TikTok evita...
¿Podría la IA decidir las próximas elecciones? Estudios revelan su capacidad para alterar la intención de voto, planteando interrogantes sobre...
Australia prohibirá el acceso a redes sociales a menores de 16 años en diciembre, generando un debate sobre protección infantil...
¿Código escrito por IA? La inteligencia artificial irrumpe en el desarrollo de software, transformando roles y habilidades. Málaga se prepara...
La tecnología de renderizado 3D que animó "Toy Story" ahora impulsa la precisión de los drones militares, gracias a un...
Corea del Sur desmantela una red de ciberespionaje que hackeó miles de cámaras IP para vender vídeos íntimos, exponiendo la...
Científicos en Málaga logran restaurar la visión en pacientes con implantes cerebrales. La innovadora tecnología, liderada por un ex-Neuralink, abre...
En un mundo inundado de noticias falsas, Wikipedia cumple 25 años como un bastión de información fiable, celebrando un cuarto...
Málaga se prepara para la web agéntica, una revolución digital con agentes de IA que prometen optimizar tareas y transformar...
Un experimento revela cómo los algoritmos de redes sociales pueden exacerbar la polarización política, pero también ofrece una solución: priorizar...

Compartir en...

WhatsApp
X
Facebook
LinkedIn
Contacta con nosotros