¿Pagaría alguien impuestos de forma voluntaria? Tal vez alguien sí. La mayoría no. Lo mismo sucede con la autorregulación de las grandes empresas tecnológicas: no funciona. Es lo que dice Yoshua Bengio, reconocido como uno de los padres creadores del aprendizaje profundo (deep learning en inglés), una de las capacidades que ha conducido a la actual eclosión de la inteligencia artificial (IA).
Mark Zuckerberg
© Getty ImagesMark Zuckerberg, 'megacapo' de Facebook, antes de comparecer ante la sesión conjunta de las comisiones de Comercio y Justicia del Senado de EE UU.
Bengio ha recibido el premio Turing 2018 -conocido como el Nobel de la informática- junto con otros dos pioneros en el campo: Geoffrey Hinton, actualmente en Google, y Yann LeCun, que trabaja para Facebook. En una entrevista en Nature, el científico -asociado a la Universidad de Montreal- asegura que muchas compañías y Estados usan la IA de forma irresponsable, a menudo a la sombra (en laboratorios militares, en organizaciones de seguridad o en empresas privadas que prestan servicios a los gobiernos o a la policía). "La IA es una herramienta que pueden usar quienes tienen el poder para mantenerlo y aumentarlo", afirma.

Los hechos no le quitan la razón. Las grandes tecnológicas se han unido en un consorcio -Partnership on AI- cuya misión "estudiar y formular las mejores prácticas en tecnologías de IA". Esa es la teoría. En la práctica, se las acusa de actuar como grupo de cabildeo a la búsqueda de normas -o ausencia de ellas- que beneficien a sus intereses. Una forma de autorregularse sin someterse al escrutinio y voto público. "Esta alianza ha hecho poco más que garantizar su representación estratégica en las mesas, cumbres y universidades convenientes", asegura Christopher Markou, profesor especializado en Leyes e Inteligencia Artificial en la Universidad de Cambridge (Reino Unido).

"Es perfecto porque dan la impresión de posicionarse en el lado correcto, cuando sus acciones no van más allá de las relaciones públicas", sostiene el investigador, entrevistado por EL PAÍS RETINA durante el seminario HUMAINT sobre el impacto de la IA organizado por el Centro Común de Investigación (JRC-CAS) de la Comisión Europea. Markou habla del teatro de ética de la industria de la inteligencia artificial: un intento de lavado de cara mediante la invocación de la ética del que pocas tecnológicas escapan. A Google de momento le ha salido el tiro por la culata, con la polémica cancelación de su Comité de Ética -tras conocerse la identidad de algunos controvertidos miembros- una semana después de crearlo.

"La autorregulación no es una opción. No es posible que los gobiernos y los ciudadanos confíen en estas empresas solo porque digan que se comprometen a ser éticas, responsables o cualquier otra palabra de moda que sea conveniente para sus negocios", asegura Markou. El investigador compara el caso con la crisis financiera de 2008: "Se permitió que una industria carente de regulación y sin control sobre sus excesos llevara a la quiebra de la economía global. Eso no puede pasar con la IA", afirma.

Privatizar la gobernanza

Los riesgos van más allá de plano económico y hacen temblar el sistema democrático. Frente al anhelo de internet como poder descentralizador, la red se ha acabado centralizando a través de la influencia de unas pocas grandes corporaciones. "Tenemos un problema. De los cinco países más grandes del mundo -Facebook, WhatsApp, China, India, e Instagram- tres son de Facebook. Pertenecen a una misma empresa dirigida por una persona no elegida democráticamente", asegura la científica de datos y académica de la Real Academia de Ingeniería Nuria Oliver.

Oliver apunta que estas empresas pueden llegar a una inmensa cantidad de gente sin ningún tipo de rendición de cuentas. "Tiene mayor poder que un país, y dominio suficiente como para ejercer la gobernanza", afirma.
Gánsteres digitales

"A empresas como Facebook no se les debe permitir comportarse como pandilleros digitales en el mundo online, bajo la consideración de que están por delante y más allá de la ley". Es una de las conclusiones de un demoledor informe sobre desinformación y noticias falsas de la comisión parlamentaria de Selección Digital, Cultura, Medios y Deporte de Reino Unido, publicado en febrero de este año tras una investigación de 18 meses.

Según el presidente del comité, Damian Collins, "la democracia está en riesgo debido al ataque de desinformación malicioso e implacable contra los ciudadanos". Asegura que estos son problemas que las grandes empresas de tecnología conocen pero no abordan. "Necesitamos un cambio radical en el equilibrio de poder entre las plataformas y las personas. La era de la autorregulación debe llegar a su fin. Los derechos de los ciudadanos deben establecerse por estatuto y exigir que las empresas de tecnología se adhieran a un código de conducta en una ley parlamentaria revisada por un regulador independiente", afirma
En su opinión, en línea con Bengio y Markou, los discursos de autorregulación "son una excusa para tener libertad para definir el marco regulatorio que mejor les venga". O, lo que es lo mismo, más cuotas de poder. "Los imperios tecnológicos están dictando decisiones sobre nuestra vida e imponiendo sus leyes. Quieren conectarnos a todos para controlarnos a todos", asegura Renata Ávila, abogada de Derechos Humanos y directora ejecutiva de la Fundación Ciudadanía Inteligente.

La realidad no parece alejada de esta idea. Jack Ma -fundador del gigante de comercio electrónico Alibaba- planea crear una plataforma electrónica de comercio mundial (eWTP) para facilitar el comercio trasfronterizo y que el sector privado tome parte en la creación de leyes. El Pacto de Ciberseguridad de París para regular el entorno digital, anunciado por Macron y respaldado 50 países diferentes, incluye a compañías como Microsoft, Google o Samsung.

Marietje Schaake
© Getty ImagesLa europarlamentaria progresista del D66 Marietje Schaake
Estas compañías tienen derecho -y es su deber- a participar en las discusiones sobre cómo fomentar la innovación o luchar contra el discurso del odio, contra la manipulación o el pirateo. Pero la línea entre tener voz en ellas y dictar, de facto, las leyes, se hace cada vez más fina. Sobre ello escribe en Bloomberg la europarlamentaria progresista del D66 Marietje Schaake. "Está muy bien que las empresas actúen de manera responsable pero otra cosa diferente es que asuman la gobernanza transfronteriza y la responsabilidad de crear normas a nivel mundial, lo cual es profundamente problemático para la democracia y para el Estado de derecho", afirma.

Schaake alerta del riesgo de que el sector privado capte el interés público y de que las normas se hagan sin transparencia, sin responsabilidad y sin el mandato de las personas. Es lo que llama "la privatización de la gobernanza". Para evitar que vaya a mayores, la europarlamentaria recalca la importancia de evaluar de cerca cada iniciativa del sector privado en función de sus méritos, en lugar de tomarla por defecto como bien intencionada. "Al igual que con cada propuesta de gobierno, hay que considerar los valores y los mecanismos de consentimiento, supervisión y responsabilidad en que se basan", afirma.

Por obvio que suene, el desarrollo de normas debe incluir a las múltiples partes interesadas, incluidos representantes de la sociedad civil, expertos en tecnología y representantes gubernamentales de diferentes partes del mundo, dice Schaake. "Debemos asegurarnos de que las normas estén ancladas en principios como el respeto por los derechos humanos universales y la competencia leal. Si las empresas quieren jugar a actuar como gobiernos, aunque sea temporalmente, deben asumir también sus responsabilidades", concluye.

Nuria Oliver
© Eva MezNuria Oliver, referencia en 'big data' en Vodafone y DataPop.
Bengio y Markou coinciden con la necesidad de una gobernanza online integradora y que parta de los poderes públicos. "Si creemos en la democracia, es importante tomar decisiones consecuentes sobre cómo la IA reconfigura la sociedad, supervisar las dinámicas de poder y atribuir responsabilidades. Ello tiene que partir de una autoridad externa y, por ahora, el Estado democrático ofrece una mejor opción que la autorregulación. La industria puede tener su opinión en el proceso, pero en la práctica su opinión está ya más que bien representada", sostiene.

Markou considera que un paso importante sería crear un organismo de supervisión y regulación profesional para la industria de la IA: "De la misma manera que los médicos, abogados, ingenieros y periodistas están sujetos a supervisión profesional y a códigos de conducta ética, creo que las personas que construyen la arquitectura de la sociedad también deberían estarlo". Reconoce que la inteligencia artificial plantea muchas cuestiones legales, económicas y éticas para las cuales hay pocas respuestas correctas pero cree que la perfección no debe ser el estándar. "Más bien, deberíamos ser decisivos para garantizar que esta nueva e importante fuente de poder esté sujeta a los controles y equilibrios adecuados. Ello requiere de coraje político, público y periodístico", afirma.

El experto argumenta que existe un importante déficit democrático en tecnología y que hemos llegado a ver el progreso tecnológico y la innovación como bienes sociales inalienables que deben incentivarse a toda costa. Markou tiene claro que la tecnología es "la fuerza motriz de la modernidad" y no cree que el impulso de explorar y construir nuevas herramientas pueda ni deba ser suprimido. Más bien, aboga por llevar la política tecnológica al dominio público; hacer un proceso consultivo como lo son la política económica, la política exterior y la política social. "Este es el desafío al que se enfrentan Europa y el mundo ahora, y no podemos permitirnos ser complacientes y permisivos. Hay mucho en juego", concluye.