Sucedió en el Médano de Oro. La víctima tenía 37 años.
Google establece 7 principios éticos para usar su IA
Tecno
google-ia
Google promete no usar en armas su Inteligencia Artificial
Google terminó con un gran problema que quizás podría haber evitado. No supieron explicar claramente en qué consistía el Proyecto Maven, la polémica iniciativa para el Departamento de Defensa de Estados Unidos que buscaba desarrollar inteligencia artificial para drones militares. Esto generó una gran negativa en usuarios y miembros de la empresa, donde más de 4.000 empleados firmaron una petición para que la compañía abandonara dicho proyecto.
Hace unos días confirmaron su decisión de no seguir adelante con el proyecto. Ante esto, ahora Google busca limpiar su imagen al establecer siete principios que regirán el uso de la inteligencia artificial en futuros proyectos y desarrollos.
Un buen mensaje para todas las empresas que están invirtiendo dinero en Inteligencia Artificial.
Google terminó con un gran problema que quizás podría haber evitado. No supieron explicar claramente en qué consistía el Proyecto Maven, la polémica iniciativa para el Departamento de Defensa de Estados Unidos que buscaba desarrollar inteligencia artificial para drones militares. Esto generó una gran negativa en usuarios y miembros de la empresa, donde más de 4.000 empleados firmaron una petición para que la compañía abandonara dicho proyecto.
Hace unos días confirmaron su decisión de no seguir adelante con el proyecto. Ante esto, ahora Google busca limpiar su imagen al establecer siete principios que regirán el uso de la inteligencia artificial en futuros proyectos y desarrollos.
- Que sea socialmente benéfica. Google dice que tomará en cuenta una amplia gama de factores sociales y económicos, y procederá en los casos en los que crean en los beneficios, como en áreas de atención médica, seguridad, energía, transporte, manufactura, entretenimiento y otras más.
- Evitar crear o reforzar un sesgo injusto. La compañía asegura que trabajará para evitar "impactos injustos" en sus algoritmos, donde evitarán inyectar sesgo racial, sexual o político en la toma de decisiones automatizada.
- Estar construida y probada para ser segura. Mencionan que seguirán implementando estrictas prácticas de seguridad y protección para evitar resultados que generen daño. Asegurando que probarán las tecnologías de IA en entornos controlados y supervisarán su funcionamiento después de su implementación.
- Ser responsable con las personas. "Nuestras tecnologías de IA estarán sujetas a la apropiada dirección y control humano". Es decir, una inteligencia artificial que siempre estará respaldada y bajo el control de un ser humano.
- Incorporar principios de diseño de privacidad. A raíz del escándalo de Facebook, Google busca blindarse al asegurar que su IA respetará la privacidad de los datos que obtiene. Sin duda un punto importante al saber que Google usa IA en casi todos sus servicios, desde Gmail hasta Fotos y mucho más.
- Mantener altos estándares de excelencia científica. Google sabe que la inteligencia artificial tiene el potencial de ayudar en nuevos ámbitos científicos y de investigación, por lo que se comprometen a apoyar la investigación abierta, el rigor intelectual, la integridad y la colaboración.
- Estar disponible para usos que vayan de acuerdo con estos principios. Este punto envuelve a todos los anteriores y deja claro el error de Project Maven, ya que si algún proyecto va en contra de estos principios, simplemente no lo tomarán. Aquí Google especifica escenarios potencialmente dañinos o abusivos que serán evaluados de acuerdo a cuatro puntos: Propósito y uso principal, naturaleza y singularidad, escala y la naturaleza de la participación de Google.
Un buen mensaje para todas las empresas que están invirtiendo dinero en Inteligencia Artificial.
Lo más visto
Después de estos días cálidos, llegará un nuevo frente frío a San Juan: detalles
Diario Móvil
San Juan
El viento sur provocará un nuevo descenso de la temperatura.
Chico de 12 años golpeó a su maestra, le rompió la mandíbula y desvió el tabique
Sebastian Mestre
Nacionales
Ocurrió en el comedor de una escuela de Bahía Blanca. La maestra terminó internada en un hospital. La agresión se produjo en el marco de un diálogo habitual entre la docente y el alumno.
Tras votar por aumentarse el sueldo, Uñac tuvo que borrar un posteo por las feroces críticas
Diario Móvil
Política
El senador sanjuanino expuso los temas tratados en la jornada de ayer, pero omitió el dietazo que aprobaron los propios legisladores.
El sienstro involucró a un camión y una camioneta.