Respuesta a las objeciones contra la regulación de la IA (y de la tecnología en general)

Respuesta a las objeciones contra la regulación de la IA (y de la tecnología en general)

 

Cuando una innovación tecnológica causa revuelo en la prensa porque, pese a las indudables ventajas que pueda traer, implica también algunos peligros y amenazas, es recurrente que algunos analistas se atrevan a sugerir la conveniencia de legislar al respecto para evitar al menos los peores escenarios que podrían darse, e igualmente recurrente son las protestas acerca de lo irrealizable o indeseable de dicha regulación. En español, la frase más repetida entonces es «no se le pueden poner puertas al campo». Recuerdo cómo, cuando saltó la noticia del nacimiento de la oveja Dolly, allá por 1996, la frase fue profusamente usada en las tertulias y entrevistas, y lo mismo cuando en 2004 un científico coreano anunció (falsamente) haber clonado embriones humanos. Una versión más sofisticada de la idea que hay detrás dice que en tecnología, lo que puede hacerse, se hará.

Es lo que en filosofía de la tecnología se conoce como «imperativo tecnológico» y da expresión breve a una doctrina que, pese a estar desacreditada en la literatura sobre el tema, sigue teniendo un fuerte apoyo en los medios de comunicación. Me refiero al determinismo tecnológico. En pocas palabras, lo que esta doctrina sostiene es que, por su propia naturaleza, la tecnología (o al menos las tecnologías más potentes) son intrínsecamente incontrolables. Solo obedecen a una lógica interna que el ser humano no tiene capacidad para reconducir. Su máximo defensor fue el filósofo francés Jacques Ellul en el libro La tecnología o la apuesta del siglo, publicado en 1954.

Nadie puede negar que la regulación del desarrollo tecnológico no es fácil. No es como regular la conducta apropiada en una residencia universitaria, pero esto no significa que no sea factible y conveniente. Como argumentó hace ya más de dos décadas el filósofo finlandés Ilkka Niiniluoto, lo contrario del determinismo, que sería algo así como un «voluntarismo ingenuo» no resulta plausible. La tecnología presenta sus «imperativos», pero son imperativos condicionados a valores y deseos, y podemos desobedecerlos o cambiarlos.

En el caso concreto de la IA, cuya regulación parece cada vez más urgente dado que incluso especialistas destacados han pedido en una carta abierta una moratoria (no una prohibición) en la investigación en IA avanzada, he podido leer estos días varias objeciones a las que me gustaría responder. Aclaro que no soy especialista ni en IA ni en ética o filosofía del derecho. Mi especialidad es la filosofía de la ciencia y la tecnología, así que tómese esto que digo solo en lo que valga.

Se ha dicho, por ejemplo, que estas reacciones precautorias se basan en un miedo irracional a una nueva tecnología, como ha sucedido siempre en el pasado. No son más que una muestra de conservadurismo, que, además, retrata un panorama apocalíptico que nunca se va a producir.

A esto yo respondería que también el pasado nos ha mostrado suficientemente que no toda innovación tecnológica es necesariamente un progreso, o bien que trae aparejadas consecuencias indeseables que es importante evitar o paliar. Los indudables beneficios no anulan los perjuicios. Yo estoy de acuerdo en que los escenarios apocalípticos, tipo Terminator, que algunos dibujan son bastante improbables, pero se crea o no en la posibilidad futura de una Superinteligencia Artificial General, el desarrollo de la IA presenta ya efectos negativos que conviene regular. En mi anterior artículo señalé algunos.

Se ha aducido también que ninguna regulación será efectiva, porque algunos países no se someterán a ella, y donde se haga la regulación, habrá personas que intentarán saltársela y actuarán clandestinamente, como en pasó durante la Ley Seca. No tenemos el poder para imponer internacionalmente ninguna regulación al respecto y si se consiguiera, no podríamos controlar el cumplimiento ni castigar al infractor.

Esta es la paradoja que José Lázaro subraya en su interesante réplica a mi artículo previo: “los países que más abusan de las nuevas técnicas contra la propia ciudadanía nunca coinciden con los que muestran más sensibilidad sobre los límites éticos de su utilización». Y, poco después añade: «cada vez que se prohíben en Occidente peligrosos experimentos de vanguardia con seres humanos, llegan confusas noticias sobre laboratorios en China o Corea del Norte que desprecian tales prohibiciones y podrían estar haciendo los mismos experimentos que Europa y Estados Unidos rechazan». Esto le lleva a la pregunta fundamental: «¿Tiene sentido que los países democráticos se hagan a sí mismos prohibiciones que no van a respetar los países autoritarios, que investigan lo que quieren sin dar cuenta ni pedir permiso a nadie?».

Mi respuesta es que por supuesto que tiene sentido. Toda regulación, toda ley, puede ser incumplida, pero eso no inutiliza la ley, ni convierte en absurdas o inútiles las normas, más bien muestra que eran necesarias. Si todo el mundo hiciera el bien por inclinación natural y procurará siempre evitar cualquier daño, no haría falta ninguna normativa. Es verdad que una regulación debe prever los mecanismos de sanción para el que la incumple. Otra cosa es que no tengamos los medios para imponer la sanción, como pasaría en el caso que comentamos, o como pasaba en el salvaje Oeste, pero eso no impide que la legislación sea conveniente e incluso tenga efectos positivos. El salvaje Oeste terminó siendo pacificado precisamente porque se hicieron leyes, aunque no pudieran ser impuestas durante años. Por lo menos, se señala con ello un referente moral. Incluso China terminó sancionando al científico He Jiankui después de hacer que nacieran dos niñas genéticamente manipuladas.

No podemos, por otra parte, esperar a la unanimidad para intentar desarrollar cualquier legislación internacional. Ni siquiera la Declaración Universal de Derechos Humanos consiguió esa unanimidad, y hoy seguro habría más países que antes que no la firmarían, pero no vamos a negar por ello sus efectos beneficiosos.

Pero si no desarrollamos nosotros esta tecnología –se dirá–, lo van a hacer otros con toda seguridad. ¿Nos dejará eso en una desventaja inasumible frente a rivales geoestratégicos? No necesariamente. Nadie (excepto algún exaltado) habla de una prohibición total de la investigación en IA. Nadie pide que en Europa no se investigue sobre sistemas de reconocimiento facial, sino que no se usen, como en Rusia y China, de formas que violan los derechos fundamentales. No parece desmedida ni alocada una petición así. Así que no tenemos por ello que quedar rezagados en nada (al menos, en nada deseable).

La regulación ha mostrado hasta ahora ser útil y beneficiosa para todos. Hemos regulado durante décadas (aunque ahora desgraciadamente con la guerra de Ucrania esto sea papel mojado) la producción de armas nucleares, hemos regulado y prohibido el uso de armas químicas y biológicas, hemos regulado muchos aspectos de la biotecnología, como el trasplante de órganos o la clonación humana, se prohibió con éxito el uso del DDT y de los gases clorofluorocarbonados, que destruían la capa de ozono. Esto lo sabemos bien y lo saben las autoridades políticas. En caso contrario, ¿qué sentido tendría que en la actualidad se pida la realización de un estudio de impactos, incluyendo cuestiones éticas, a la hora de aprobar la implementación o el comienzo de cualquier proyecto tecnológico relevante? De hecho, la gobernanza de la IA se ha convertido hoy en una preocupación central en la UE y en otros países desarrollados.

Se dice también que todo esto va muy deprisa y que cualquier regulación quedaría obsoleta en poco tiempo. Bien, pues ahí tenemos un desafío para los técnicos y legisladores, pero no una razón para no hacer nada. En todo caso, las cuestiones fundamentales tampoco están cambiando tan deprisa.

Se dice que cualquier regulación impediría el progreso. Pero es evidente que no todo lo que nos pueda traer la tecnología es necesariamente un progreso en el sentido de que sea un cambio para mejor. Y tampoco está claro que la regulación de la IA vaya a impedirlo. ¿Impidió el progreso la regulación de la clonación en embriones humanos? ¿La prohibición de la clonación reproductiva en humanos? No, a no ser que consideremos un progreso poder hacer un hermano gemelo.

Se dice, y con esto acabo con las objeciones, aunque sé que hay muchas más, que las ventajas de la IA serán mucho mayores que los inconvenientes, que la IA no tiene nada que ver con tecnologías más preocupantes o peligrosas como la energía nuclear. Muy bien, supongamos que sea así. En tal caso, no habrá ningún problema en que preveamos algunas posibles consecuencias negativas, aunque sean pocas e improbables, para tratar de evitarlas.

Y ahora, para terminar, hago yo una pregunta: ¿Cuál es la alternativa? ¿Dejamos que las grandes compañías tecnológicas y los poderes económicos decidan por nosotros sin ninguna cortapisa, con nuestra bendición además? La plausibilidad inicial del determinismo tecnológico debe ser puesta en contraste con un hecho que, si bien no lo convierte en falso, sí que al menos debería prevenirnos contra su aceptación pasiva: el determinismo tecnológico es paralizante. Conduce a la inacción e impide que tomemos las decisiones adecuadas ante los graves desafíos que se nos presentan. Al admitir que todo lo que pueda hacerse técnicamente se hará tarde o temprano, sea cual sea nuestro juicio sobre ello, lo que indirectamente se sugiere es que hemos de estar preparados para asumir cualquier resultado posible y que nuestros deseos o la calificación moral que nos merezcan los resultados de la tecnología están aquí fuera de lugar. No me parece una posición muy razonable.

Magazin Digital

Magazin Digital

Esta web utiliza cookies propias y de terceros para su correcto funcionamiento y para fines analíticos y para fines de afiliación y para mostrarte publicidad relacionada con sus preferencias en base a un perfil elaborado a partir de tus hábitos de navegación. Contiene enlaces a sitios web de terceros con políticas de privacidad ajenas que podrás aceptar o no cuando accedas a ellos. Al hacer clic en el botón Aceptar, acepta el uso de estas tecnologías y el procesamiento de tus datos para estos propósitos. Más información
Privacidad