El éxito de la inteligencia artificial no dependerá de la brillantez técnica, sino de si los ciudadanos la reconocen como transparente y responsable.
La inteligencia artificial (IA) ya ayuda a decidir quién consigue una entrevista de trabajo, un préstamo o la libertad condicional. Nadie votó por estos sistemas, pero sus decisiones influyen en la vida cotidiana.
Los gobiernos están actuando con rapidez. La Unión Europea ha aprobado la Ley de IA. Estados Unidos emitió una orden ejecutiva y un plan de orientación federal. El Reino Unido convocó una Cumbre de Seguridad de la IA. Sin embargo, ninguno de estos esfuerzos responde a la pregunta más profunda: ¿acepta la gente la autoridad que ejercen estos sistemas?. Una herramienta precisa puede fallar si el público nunca le otorga legitimidad. La legitimidad es la base silenciosa de las instituciones duraderas. Los tribunales, las legislaturas y los bancos centrales funcionan porque muchos ciudadanos aceptan cómo ejercen el poder, incluso cuando los resultados son cuestionados. Las empresas de inteligencia artificial tienen una influencia comparable. Moderan el discurso en plataformas utilizadas por miles de millones de personas. Construyen sistemas que afectan a la medicina, la energía, el transporte y la seguridad nacional. Sin embargo, el público ha tenido poca participación en la delegación de esa autoridad o en el establecimiento de límites para ella.
La historia muestra lo que sucede cuando se ignora la legitimidad. La energía nuclear se presentó en la década de 1950 como barata y abundante. Su desarrollo estuvo a veces envuelto en secreto. Tras accidentes como los de Three Mile Island y Chernóbil, la confianza pública se debilitó. Los proyectos se estancaron durante décadas. Los cultivos modificados genéticamente en Europa siguieron una trayectoria similar de ciencia sólida, consenso débil y resistencia duradera.
Las tragedias del Boeing 737 Max ofrecen otro paralelo. El software introducido sin transparencia contribuyó a dos accidentes y 346 muertes. Los aviones volvieron al servicio; el daño a su reputación perdura. Una vez que se pierde la confianza, reconstruirla cuesta más que establecerla correctamente desde el principio.
La IA muestra las mismas señales de alerta. En 2018, el escándalo de Cambridge Analytica reveló cómo se habían recopilado datos de Facebook y se habían utilizado como arma para influir en las elecciones. La filtración no fue solo técnica; violó la expectativa básica del consentimiento.

