Principios de IA de Google: De 'No seas malvado' al complejo militar-industrial
El abandono del antiguo lema de Google, 'No seas malvado', continúa, a medida que su implicación con el complejo militar-industrial se profundiza. La empresa eliminó cuatro puntos clave de sus principios de IA: ninguna participación en armas, vigilancia, tecnologías que causan daño o que violan el derecho internacional y los derechos humanos. En cambio, enfatiza las democracias liderando el desarrollo de IA y la colaboración con los gobiernos para una 'IA que protege a las personas, promueve el crecimiento global y apoya la seguridad nacional'. Esto sugiere una posible participación en sistemas de armas de IA y vigilancia utilizando su vasto poder de computación. Esta decisión, tras las críticas de la EFF y de grupos de derechos humanos, particularmente en relación con el Proyecto Nimbus (que proporciona tecnología avanzada al gobierno israelí), plantea serias preocupaciones éticas. La priorización de los beneficios sobre los derechos humanos por parte de Google, impulsada por lucrativos contratos de defensa, es evidente. El potencial de armas autónomas basadas en IA, software de objetivos y análisis de inteligencia representa amenazas significativas para los individuos.