Google y el peligroso negocio de la guerra

In Acciones del Imperio, Principal

Uno de los mayores emporios digitales del mundo atraviesa una crisis ética por su apoyo a la industria militar estadounidense

Google y el peligroso negocio de la guerra

De una protesta interna a un asunto público ha pasado el hecho de que Google colabore con el Pentágono en el desarrollo de un software de inteligencia artificial para «mejorar» la identificación de los seres humanos a través de vehículos aéreos no tripulados.

Con más de 3 000 firmas, la carta redactada por empleados de Google refleja un choque cultural entre Silicon Valley —zona geográfica donde están enclavadas las más poderosas empresas tecnológicas del mundo— y el Gobierno federal de Estados Unidos.

Dicha disputa podría crecer todavía más si tomamos en cuenta que la industria militar estadounidense ha mostrado un vívido interés en el empleo de los sistemas de inteligencia artificial para sus propósitos belicistas.

Por eso el texto de la carta, dirigida a Sundar Pichai, director ejecutivo de la compañía, afirma: «Creemos que Google no debería involucrarse en el negocio de la guerra»; pide que se cierre el contrato de Project Maven, nombre del programa piloto de inteligencia artificial del Pentágono, y solicita la creación de una política para que «jamás se desarrolle tecnología militar».

Si bien los más de 3 000 firmantes del texto, algunos de ellos ingenieros veteranos de la compañía, representan una fracción minoritaria de los 70 000 empleados de Google, no cabe duda de que su posición es una toma de conciencia ante el peligro de lo que podría llegar a suceder, para mal, con sus creaciones tecnológicas.

No seas malvado

El lema de Google como empresa —ahora condensada en el conglomerado Alphabet— es «No seas malvado». Este mantra, se supone, rige las creaciones tecnológicas dentro de la compañía, la cual ha brindado no pocos productos que cambiaron la forma en que interactuamos con nuestro entorno, como Gmail, Google Translate o YouTube —este último mejorado, no creado desde cero—, por solo mencionar algunos.

Con dicho currículo, no pocos se alegraron cuando Google anunció que trabajaría en algoritmos y programas para desarrollar el incipiente campo de la inteligencia artificial. Desde entonces ha gastado ingentes cantidades de dinero en enseñar a las computadoras a traducir idiomas, jugar Go o manejar vehículos, acciones por las que ha sido aplaudido.

Empero, su participación en Project Maven, destinado a mejorar la puntería de los ataques de drones, entre otras cuestiones, es considerada por no pocos de sus trabajadores como un ataque moral.

Google trató de suavizar el asunto al afirmar que su participación en Project Maven no es ofensiva, según afirma un artículo de The New York Times, pero otros hechos contradicen este planteamiento.

Primero, el software de análisis de video empleado por el Pentágono se usa de forma habitual en operaciones militares, algo refrendado por oficiales del mismo Departamento de Defensa durante su última conferencia tecnológica, celebrada en julio del pasado año, lo cual consta en una publicación del sitio web de la institución.

Luego, quizá la actitud de Google no debería sorprender tanto, pues es conocido que su antiguo director ejecutivo, Eric Schmidt, mantuvo significativas conexiones con el Pentágono, así como su vicepresidente, Milo Medin.

A todo ello se suma que Google está tratando de dejar atrás la competencia. Tanto Microsoft como Amazon están en franca carrera para obtener un contrato multimillonario con el Departamento de Defensa mediante el cual proveerían servicios de computación en la nube.

Por si no bastara, las intenciones de Project Maven fueron develadas por John Gibson, jefe de Gestión en el Departamento de Defensa, quien dijo el pasado marzo que la adquisición de tecnologías de infraestructura en la nube está diseñada en parte para «aumentar la letalidad y la preparación» de su país en cuestiones bélicas, y subrayó la dificultad de separar el software, la nube y los servicios relacionados con esta del negocio real de la guerra.

Es por eso que la carta alerta que «este plan dañará irreparablemente la marca de Google y su capacidad para competir por el talento. En medio de los crecientes temores de una inteligencia artificial sesgada y con fines armamentísticos, Google ya está luchando por mantener la confianza del público».

Una ciencia sin Waterloo

Cada rama de la ciencia ha experimentado un punto de inflexión moral a lo largo de la historia, especialmente en el siglo XX, durante el cual aceleraron su desarrollo. Las mentes científicas más brillantes han buscado mejorar el mundo y, si bien lo han logrado, también se encontraron con invenciones que cambiaron el curso de la historia.

Por ejemplo, la Química tuvo su primer encontronazo con la invención de la dinamita en 1866 por parte del sueco Alfred Nobel, cuyo horroroso poder destructivo motivó al inventor a donar su fortuna para el premio que hoy lleva su apellido.

Unos años después la situación fue todavía peor al desplegarse el primer ataque químico en el frente occidental de la Primera Guerra Mundial gracias a los descubrimientos del alemán Fritz Haber. Por un lado, Haber desarrolló la síntesis del amoníaco, importante en los fertilizantes, pero también pasó a la historia como el «padre» de la guerra química.

Los físicos, por su parte, tuvieron su momento álgido cuando las bombas atómicas destruyeron Hiroshima y Nagasaki en 1945, lo cual motivó que muchos de ellos se convirtieran en activistas políticos antiarmas; mientras que los biólogos llegaron al borde del precipicio moral con la eugenesia, filosofía que defiende la mejora de los rasgos hereditarios humanos mediante su manipulación genética, la cual comenzó, antes de que se plantearan las muy conocidas leyes de Mendel, con dos métodos: la esterilización forzada y el genocidio.

A diferencia de las demás, las ciencias de la computación nunca han tenido una «batalla de Waterloo» moral, acaso porque son relativamente jóvenes y su acelerado desarrollo se ha registrado con mayor fuerza en las tres últimas décadas.

Situaciones como los escándalos de invasión a la privacidad de nuestros datos, el más reciente de estos el de Cambrigde Analytica y Facebook, y ahora el empleo de la inteligencia artificial con fines bélicos, conducen a un momento en el que es necesario plantearse cómo interviene la ética en el desarrollo de un producto tecnológico.

Los empleados de Google que firmaron lo entienden de esta forma y así lo expresan en la citada carta: «No podemos externalizar la responsabilidad moral de nuestras tecnologías a terceros. Los valores declarados de Google lo dejan claro: cada uno de nuestros usuarios confía en nosotros. Nunca arriesguemos eso. Nunca. Este contrato pone en riesgo la reputación de Google y se encuentra en oposición directa a nuestros valores fundamentales. No es aceptable desarrollar esta tecnología para ayudar al Gobierno de EE. UU. en la vigilancia militar y los resultados potencialmente letales». La siguiente pregunta entonces es: ¿Serán escuchados?

Autor:  

Deja una respuesta:

Su dirección de correo electrónico no será publicada.

Mobile Sliding Menu