Google establece 7 principios éticos para usar su IA

Google promete no usar en armas su Inteligencia Artificial

Google terminó con un gran problema que quizás podría haber evitado. No supieron explicar claramente en qué consistía el Proyecto Maven, la polémica iniciativa para el Departamento de Defensa de Estados Unidos que buscaba desarrollar inteligencia artificial para drones militares. Esto generó una gran negativa en usuarios y miembros de la empresa, donde más de 4.000 empleados firmaron una petición para que la compañía abandonara dicho proyecto.

Hace unos días confirmaron su decisión de no seguir adelante con el proyecto. Ante esto, ahora Google busca limpiar su imagen al establecer siete principios que regirán el uso de la inteligencia artificial en futuros proyectos y desarrollos.

  1. Que sea socialmente benéfica. Google dice que tomará en cuenta una amplia gama de factores sociales y económicos, y procederá en los casos en los que crean en los beneficios, como en áreas de atención médica, seguridad, energía, transporte, manufactura, entretenimiento y otras más.
  2. Evitar crear o reforzar un sesgo injusto. La compañía asegura que trabajará para evitar “impactos injustos” en sus algoritmos, donde evitarán inyectar sesgo racial, sexual o político en la toma de decisiones automatizada.
  3. Estar construida y probada para ser segura. Mencionan que seguirán implementando estrictas prácticas de seguridad y protección para evitar resultados que generen daño. Asegurando que probarán las tecnologías de IA en entornos controlados y supervisarán su funcionamiento después de su implementación.
  4. Ser responsable con las personas. “Nuestras tecnologías de IA estarán sujetas a la apropiada dirección y control humano”. Es decir, una inteligencia artificial que siempre estará respaldada y bajo el control de un ser humano.
  5. Incorporar principios de diseño de privacidad. A raíz del escándalo de Facebook, Google busca blindarse al asegurar que su IA respetará la privacidad de los datos que obtiene. Sin duda un punto importante al saber que Google usa IA en casi todos sus servicios, desde Gmail hasta Fotos y mucho más.
  6. Mantener altos estándares de excelencia científica. Google sabe que la inteligencia artificial tiene el potencial de ayudar en nuevos ámbitos científicos y de investigación, por lo que se comprometen a apoyar la investigación abierta, el rigor intelectual, la integridad y la colaboración.
  7. Estar disponible para usos que vayan de acuerdo con estos principios. Este punto envuelve a todos los anteriores y deja claro el error de Project Maven, ya que si algún proyecto va en contra de estos principios, simplemente no lo tomarán. Aquí Google especifica escenarios potencialmente dañinos o abusivos que serán evaluados de acuerdo a cuatro puntos: Propósito y uso principal, naturaleza y singularidad, escala y la naturaleza de la participación de Google.

Un buen mensaje para todas las empresas que están invirtiendo dinero en Inteligencia Artificial.

¿Qué opinas de esta nota?

Compartir