Google actualiza su política y elimina el compromiso a no usar la inteligencia artificial para crear armas
La compañía de Mountain View ha actualizado sus 'Principios para la IA', publicados por primera vez en 2018.
![Google actualiza su política y elimina el compromiso a no usar la inteligencia artificial para crear armas](https://imagenes.20minutos.es/files/image_1920_1080/uploads/imagenes/2021/02/03/google.jpeg?#)
Google ha actualizado su guía ética para el uso de la inteligencia artificial (IA). Los principios de la compañía de Mountain View se basan en "organizar la información del mundo y hacerla universalmente accesible y útil" para que el enfoque de esta tecnología sea "audaz y responsable", además, guían "el desarrollo y la implementación de los sistemas de IA". Pero, con la reciente actualización, Google ha rediseñado la mayoría de sus principios, tanto que ha eliminado la categoría 'Aplicaciones de la inteligencia artificial que no vamos a abordar'.
Dicho principio estaba relacionado con el compromiso de no usar esta tecnología en aplicaciones relacionadas con vigilancia o armas que violen normas internacionales o contraríen los derechos. Además, como se puede leer en la lista original, los anteriores principios de IA incluían aplicaciones relacionadas con evitar "tecnologías que causen o puedan causar daño en general".
Google no ha notificado el cambio
Como hemos mencionado anteriormente, se ha eliminado de este documento un epígrafe en el que Google mencionaba las aplicaciones que no ejecutarían la IA. Entre ellas estaban incluidas "tecnologías que causan o pueden causar daño general", como las armas o soluciones destinadas a la vigilancia.
Cabe señalar que Google ha hecho referencia a la "actualización de los principios de IA", aunque sin señalar que han eliminado el apartado en el que se prometía que no "diseñaría ni implementaría" herramientas de IA para su uso en armas o en tecnología de vigilancia.
Google querrá "mitigar resultados no deseados o dañinos"
Los cambios y la nueva visión de la compañía sobre sus principios de la IA han sido explicados en el blog de la multinacional en un escrito firmado por el jefe de IA de Google, Demis Hassabis, y el vicepresidente senior de tecnología y sociedad de la compañía, James Manyika.
Con esta actualización, Google que "las democracias deberían liderar el desarrollo de la IA, guiadas por valores fundamentales como la libertad, la igualdad y el respeto por los derechos humanos": "Creemos que las empresas, los gobiernos y las organizaciones que comparten estos valores deberían trabajar juntos para crear una IA que proteja a las personas, promueva el crecimiento global y respalde la seguridad nacional”.
Por otro lado, la nueva actualización incluirá, en este sentido, disposiciones como que la empresa recurrirá al control humano y tendrá en cuenta la colaboración de los usuarios para garantizar que su tecnología se emplee de acuerdo a los principios "ampliamente aceptados del derecho internacional y los derechos humanos". Asimismo, desde Google señalan que la empresa trabajará para "mitigar resultados no deseados o dañinos y evitar sesgos injustos", además de alinear a la empresa con "principios ampliamente aceptados del derecho internacional y los derechos humanos".
Apúntate a nuestra newsletter y recibe en tu correo las últimas noticias sobre tecnología.