Google abandona su compromiso y da luz verde al uso de IA para el desarrollo de armas y vigilancia
La desaparición de estos puntos en su manual ético da a entender que Google quiere desprenderse de compromisos voluntarios de este tipo, abriendo la veda a muy distintos usos o aplicaciones de la inteligencia artificial. En 2018, mucho antes de que la inteligencia artificial se generalizase en la vida cotidiana como lo ha hecho ahora, […] The post Google abandona su compromiso y da luz verde al uso de IA para el desarrollo de armas y vigilancia appeared first on ADSLZone.
La desaparición de estos puntos en su manual ético da a entender que Google quiere desprenderse de compromisos voluntarios de este tipo, abriendo la veda a muy distintos usos o aplicaciones de la inteligencia artificial.
En 2018, mucho antes de que la inteligencia artificial se generalizase en la vida cotidiana como lo ha hecho ahora, Google añadió una sección de principios éticos en su web que señalaba los límites autoimpuestos a los que la empresa decidía adherirse en el mercado del desarrollo de esta tecnología. Ahora, Google ha eliminado unos dos puntos de este código ético acerca del uso de IA para la fabricación de armas o para la vigilancia de personas.
Google aseguraba, en esta declaración de principios, que no participaría en desarrollos de IA que tuviesen que ver con armas u otras tecnologías destinadas a herir a las personas. Asimismo, se negaban a participar en tecnologías utilizadas para la vigilancia más allá de lo estipulado en las normas internacionales.
En la página actualizada, dejamos de encontrar la sección «Aplicaciones que no perseguiremos», que incluía como primer punto «tecnologías que causan o es probable que causen daño general».
En 2018, cuando Google hizo pública por primera vez esta guía, más de 4.000 empleados firmaron una petición exigiendo «una política clara que estableciera que ni Google ni sus contratistas construirán nunca tecnología de guerra», y unos doce trabajadores renunciaron por este motivo. La guía original anterior a la modificación aquí comentada puede encontrarse en el repositorio de Internet Archive.
Panorama geopolítico complejo
En una publicación del blog de Google este martes, el vicepresidente senior de investigación, laboratorios, tecnología y sociedad de la empresa, James Manyika, y el director de Google DeepMind, Demis Hassabis, compartieron cuál es la perspectiva actual de la compañía sobre la IA. Estos directivos señalaron que los marcos de IA publicados por países democráticos han profundizado la «comprensión de Google sobre el potencial y los riesgos de la IA«.
«Hay una competencia global en curso por el liderazgo de la IA dentro de un panorama geopolítico cada vez más complejo. Creemos que las democracias deben liderar el desarrollo de la IA, guiadas por valores fundamentales como la libertad, la igualdad y el respeto por los derechos humanos», se lee en el post.
«Creemos que las empresas, los gobiernos y las organizaciones que comparten estos valores deben trabajar juntos para crear una IA que proteja a las personas, promueva el crecimiento global y respalde la seguridad nacional«.
Así, aunque han eliminado esa diferencia directa a las armas y la vigilancia, desde Google aseguran que quieren participar en un «desarrollo y despliegue responsable».
Desde la compañía norteamericana dicen estar detrás de la inteligencia artificial general, tecnología con unas implicaciones sociales que se vuelven «increíblemente profundas. No se trata solo de desarrollar una IA poderosa, sino de construir la tecnología más transformadora de la historia de la humanidad, usarla para resolver los mayores desafíos de la humanidad y garantizar que se implementen las salvaguardas y la gobernanza adecuadas, en beneficio del mundo», cuentan los de Google.
The post Google abandona su compromiso y da luz verde al uso de IA para el desarrollo de armas y vigilancia appeared first on ADSLZone.