Inteligencia Artificial

Las 7 leyes de la Inteligencia Artificial de Google

Para garantizar el adecuado desarrollo de sus técnicas de Inteligencia Artificial, el motor de búsqueda más popular del mundo ha desarrollado sus siete principios básicos a modo de estándares.

Por Redacción España, el 12/07/2019

auto ¿Te ha gustado nuestro artículo? ¡Vota!

Los seres humanos hemos desarrollado altas capacidades en campos como las matemáticas, la informática y la física, gracias a los cuales hemos sido capaces de crear máquinas que puedan "pensar" por sí mismas, lo que se conoce como Inteligencia Artificial (IA).

Cada vez son más las empresas que apuestan por este tipo de tecnología. Una de las pioneras en este campo es Google. Sin embargo, el motor de búsqueda más popular sufrió un escándalo que le empujó a desarrollar unos principios sobre los que, actualmente, basa sus investigaciones, desarrolla sus actividades y ejerce las decisiones de negocio. Te hablamos de las siete leyes de la Inteligencia Artificial de Google.


Google, en el ojo del huracán

Las leyes de la Inteligencia Artificial de Google fueron redactadas, diseñadas y puestas en marcha a raíz de una crisis de identidad que sufrió la compañía en 2018. 

La polémica se desató debido a la participación de Google en el Proyecto Maven, programa del ejército de los Estados Unidos (EEUU), en el que el gigante de internet aplicaba su Inteligencia Artificial para mejorar los sistemas de navegación de los drones militares.

Cuando la plantilla de Google se enteró de que la empresa estaba trabajando en proyectos con fines militares, más de 4.000 empleados firmaron una petición dirigida expresamente a Sundar Pinchai, CEO de Google, solicitando su retirada.

Tras la renuncia de varios de sus empleados, Google cedió ante la presión, ya que su imagen se vio seriamente dañada, y decidió incorporar los siete principios básicos que rigiesen el uso de la Inteligencia Artificial en los proyectos futuros.


Leyes de la Inteligencia Artificial de Google

1. Ser socialmente benéfica

Google estudiará factores económicos y sociales para comprobar los beneficios y riesgos del uso de sus técnicas de Inteligencia Artificial, en algunos sectores, tales como la atención médica, la seguridad, la energía, el transporte, la fabricación y el entretenimiento.


2. Evitar crear o reforzar un sesgo injusto

El mundo está repleto de culturas diferentes, cada una con sus características y peculiaridades. Precisamente por esa seña distintiva, hay que tener especial cuidado en el tratamiento de la información. Lo que en una ubicación geográfica puede interpretarse de una forma, en otra zona puede afectar negativamente.

Para evitarlo, Google utilizará su Inteligencia Artificial (IA) para analizar el impacto de la información en la sociedad, sobre todo en lo que se refiere a etnias, razas, nacionalidades, orientación sexual, ingresos, religión, ideología política, etcétera.


3. Creada para ser segura

Google implementará estrictas medidas de seguridad para evitar resultados indeseados. Para ello, los especialistas en el sector diseñarán escenarios cerrados para monitorizar el funcionamiento de la Inteligencia Artificial (IA) y, además, seguirán analizándolo una vez se haya implementado en la sociedad, con el objetivo de reducir los daños.


4. Ser responsable con las personas

Google se compromete a que todos sus sistemas de Inteligencia Artificial (IA) estarán bajo el control y supervisión de un equipo humano profesional.


5. Respetar los principios de privacidad

La compañía quiere garantizar que el uso de sus sistemas de Inteligencia Artificial (IA) respetará la privacidad de los datos que obtenga. De hecho, todo usuario obtendrá un aviso y formularios específicos de consentimiento y tratamiento de datos.


6. Conseguir altos estándares de excelencia científica

El gigante de internet cree que la IA es una forma de cambiar el mundo tal y como lo conocemos. Esta tecnología podría ser capaz de ayudar en campos científicos y de investigación. Además, se compromete a que, según vaya haciendo descubrimientos e innovaciones, irá compartiendo los resultados para que cualquier persona pueda acceder a ellos.


7. Estar disponible para usos que estén de acuerdo con estos principios

Google limitará las aplicaciones peligrosas o abusivas, es decir, si alguno de alguno de los proyectos va en contra de estos principios, no seguirán adelante con él. La compañía ejercerá estas acciones a partir del análisis de cuatro principios básicos: propósito y uso principal, naturaleza y singularidad, escala y naturaleza de la implicación de Google.


Importancia de la aplicación responsable de la IA

En el año 2014, el periódico británico The Independent publicó una frase del científico Stephen Hawking, en alusión a la aplicación responsable de la IA: "El éxito en la creación de la inteligencia artificial podrá ser el evento más grande en la historia de la humanidad. Desafortunadamente también sería el último, a menos de que aprendamos cómo evitar los riesgos".


"El éxito en la creación de la inteligencia artificial podrá ser el evento más grande en la historia de la humanidad. Desafortunadamente también sería el último, a menos de que aprendamos cómo evitar los riesgos". Stephen Hawking.


Stephen Hawking hacía referencia a que el ser humano podría conseguir grandes logros en diversos ámbitos que podrían repercutir positivamente en la vida de muchas personas. Avances médicos, tecnología inteligente, asistentes virtuales de categoría superior...

Sin embargo, también puede darse todo lo contrario. De acuerdo con el científico, un mal uso de la Inteligencia Artificial podría desembocar en el exterminio de la raza humana. Por eso, apelaba a la comunidad científica a estudiar seriamente sus efectos en la sociedad.

TAGS:
Imagen del autor Redacción España

Equipo de redacción de B12 España: Marketing, Big Data, Inteligencia Artificial y Ventas.

Ponte en contacto con nosotros:

+34 916 629 534

madrid@agenciab12.com

Calle Alcalá, 21, 8ºD. 28014 - Madrid