La transparencia algorítmica ha llegado al Tribunal Supremo en un caso que podría marcar un antes y un después en la relación entre la ciudadanía y la inteligencia artificial del Estado. Hoy, 8 de julio de 2025, se ha celebrado la vista oral del llamado «Caso Bosco», un litigio que enfrenta a la organización Civio con el Gobierno por la negativa a revelar el código fuente del algoritmo Bosco, responsable de determinar quién recibe el bono social eléctrico. La pregunta que resuena en los pasillos del alto tribunal es simple, pero trascendental: ¿tenemos derecho a saber cómo las máquinas toman decisiones que afectan a nuestras vidas?
El caso Bosco ha destapado una realidad inquietante: cada vez más decisiones gubernamentales se delegan en algoritmos, cajas negras cuyo funcionamiento interno permanece oculto al público. Esto plantea serias dudas sobre la transparencia y la rendición de cuentas de la administración pública. Si un algoritmo falla y deniega una ayuda a quien legítimamente la necesita, ¿cómo podemos reclamar si no sabemos cómo funciona dicho algoritmo? ¿Cómo podemos garantizar que no existen sesgos o errores en su programación? La opacidad algorítmica socava la confianza en las instituciones y pone en riesgo los derechos de los ciudadanos.
El abogado Javier de la Cueva, representante de Civio, ha sido contundente en su alegato: «En una democracia plena, no es admisible el secreto del código fuente con los que se regulan los derechos de la ciudadanía». De la Cueva ha argumentado que el derecho a la propiedad intelectual no puede utilizarse como un «velo» para ocultar el funcionamiento de la Administración. Por su parte, el Abogado del Estado ha defendido la postura del Ministerio de Transición Ecológica, argumentando que la divulgación del código fuente podría poner en peligro datos personales de los beneficiarios y sentar un precedente peligroso. «¿Conceder acceso al código fuente de Bosco significa que habría que abrir también otros programas que usa la Administración?», se preguntó el letrado, planteando un debate sobre los límites de la transparencia.
El meollo del asunto radica en encontrar un equilibrio entre la transparencia algorítmica y la protección de la propiedad intelectual y la seguridad de los datos. ¿Es posible auditar el código fuente de un algoritmo sin revelar información sensible? ¿Pueden establecerse mecanismos de control que garanticen la transparencia sin comprometer la eficiencia de la administración pública? La respuesta a estas preguntas determinará el futuro de la relación entre la ciudadanía y la inteligencia artificial en España.
La decisión del Tribunal Supremo no solo tendrá efectos a nivel nacional, sino que servirá de referente para otros países que se enfrentan al mismo dilema. La transparencia algorítmica es un debate global, y el caso Bosco puede marcar un hito en la búsqueda de un marco legal que garantice los derechos de los ciudadanos en la era de la inteligencia artificial. Mientras tanto, la ciudadanía espera con expectación el veredicto del Supremo, consciente de que su futuro depende, en parte, de las líneas de código que se esconden tras las decisiones automatizadas del Estado.
El «Caso Bosco» no es simplemente un litigio, sino la **cristalización de una creciente desconfianza ciudadana hacia la administración algorítmica**. Que el Tribunal Supremo se vea en la tesitura de dirimir sobre el acceso al código fuente que decide el acceso a ayudas públicas es un síntoma preocupante del camino que hemos tomado. No se trata de demonizar la inteligencia artificial, sino de **exigir responsabilidades y transparencia en su implementación**. La excusa de la seguridad de los datos o la propiedad intelectual no pueden servir de cortina de humo para ocultar posibles sesgos o errores que perjudiquen a los ciudadanos. Permitir que algoritmos opacos tomen decisiones que impactan directamente en nuestras vidas es un ataque frontal a los principios básicos de la democracia y la rendición de cuentas.
El debate, sin embargo, no debería polarizarse en un enfrentamiento binario entre transparencia total y secreto absoluto. Existe un terreno intermedio donde la **auditoría independiente del código fuente**, por parte de expertos y con las debidas garantías de confidencialidad, podría ofrecer una solución viable. Negar el acceso a la «receta» de estas decisiones automatizadas bajo el pretexto de proteger la propiedad intelectual es un argumento insostenible cuando hablamos de la gestión de fondos públicos y derechos fundamentales. El verdadero desafío reside en **establecer mecanismos de control efectivos que permitan detectar y corregir posibles errores o discriminaciones**, garantizando que la inteligencia artificial sirva al interés general y no se convierta en una herramienta de opresión o injusticia.
Para ofrecer las mejores experiencias, nosotros y nuestros socios utilizamos tecnologías como cookies para almacenar y/o acceder a la información del dispositivo. La aceptación de estas tecnologías nos permitirá a nosotros y a nuestros socios procesar datos personales como el comportamiento de navegación o identificaciones únicas (IDs) en este sitio y mostrar anuncios (no-) personalizados. No consentir o retirar el consentimiento, puede afectar negativamente a ciertas características y funciones.
Haz clic a continuación para aceptar lo anterior o realizar elecciones más detalladas. Tus elecciones se aplicarán solo en este sitio. Puedes cambiar tus ajustes en cualquier momento, incluso retirar tu consentimiento, utilizando los botones de la Política de cookies o haciendo clic en el icono de Privacidad situado en la parte inferior de la pantalla.
Compartir en...
Completa el formulario o escríbenos a [email protected] y nos pondremos en contacto contigo tan pronto como sea posible.