¿Por qué ESG no desaparecerá en 2025? Líderes responden

Autor del artículo:
Expok News
Fecha de publicación:
6 de febrero de 2025.
Dirección web:
https://www.expoknews.com/google-renuncia-a-su-compromiso-de-no-usar-ia-para-crear-armamento/
Palabras clave:
Google, Inteligencia artificial (IA), Armamento, Compromiso, Ética tecnológica, Uso militar de IA, Responsabilidad empresarial, Innovación y guerra.
Cuerpo de la reseña:
El artículo aborda la reciente decisión de Google de modificar sus principios éticos, abandonando su compromiso de no usar inteligencia artificial (IA) en el desarrollo de armamento y tecnologías de vigilancia, anunciado en febrero de 2025. La compañía había firmado previamente un acuerdo en 2018 bajo el cual se comprometía a evitar el uso de IA en proyectos militares. Sin embargo, el artículo explica cómo Google ha decidido renunciar a ese compromiso en un contexto de creciente competencia global por el liderazgo tecnológico. Se mencionan declaraciones de Demis Hassabis, CEO de DeepMind, quien subraya que la inteligencia artificial se está utilizando con fines militares en otras naciones y que la empresa busca seguir siendo competitiva en este entorno. Google justifica esta decisión argumentando que las directrices deben evolucionar con el tiempo y alinearse con la "seguridad nacional". Sin embargo, este giro ha generado preocupación por el riesgo de una carrera armamentista tecnológica y posibles implicaciones éticas, afectando también la imagen de la empresa ante sus empleados y consumidores.
Estructura del artículo:
Primero hay una introducción, donde presenta el giro significativo en la política de Google sobre el uso de la IA para armamento, luego desarrolla la información sobre las razones detrás de la decisión de la empresa, incluyendo la competencia internacional y la presión de la industria. luego nos habla de las implicaciones del cambio, el impacto en la imagen corporativa de Google, y concluye con una reflexión sobre la postura de Google en la lucha por la supremacía tecnológica y sus implicaciones éticas y geopolíticas en su relación con sus consumidores y empleados.
Desarrollo del tema:
Explica el abandono de la promesa de Google de no usar IA en armamento y vigilancia, citando declaraciones del director de IA de Google, Demis Hassabis. Discute el impacto potencial en la industria tecnológica, la carrera armamentista, y los riesgos éticos del uso militar de IA. Reflexiona sobre cómo este cambio afecta la percepción pública de la empresa y su relación con los consumidores y empleados.
Conclusiones:
Aunque la empresa ha justificado su decisión como una respuesta a la realidad de la competencia tecnológica, no se puede pasar por alto el debate sobre el uso de la IA para fines militares y sus implicaciones para la paz y la seguridad global.
Apreciaciones personales:
La importancia de este tema radica en que pone de manifiesto los dilemas éticos que enfrentan las grandes corporaciones tecnológicas, especialmente cuando sus desarrollos pueden tener aplicaciones militares. Este tipo de decisiones tiene un impacto directo en la percepción pública de estas empresas, ya que los consumidores y empleados suelen valorar el compromiso ético de las mismas. En el contexto local del continente americano, países como México podrían enfrentar desafíos similares si grandes empresas tecnológicas deciden involucrarse más en la industria de la defensa, lo que plantea preguntas sobre el control y la regulación de tecnologías avanzadas. Ejemplos similares se pueden ver en el debate global sobre el uso de IA en armas autónomas, como el caso de Project Maven de Google, que anteriormente causó controversia y deserciones de empleados.