En un movimiento que ha generado tanto sorpresa como controversia, Google ha actualizado sus políticas sobre el uso de la inteligencia artificial (IA), eliminando explícitamente su compromiso anterior de no desarrollar tecnologías de IA para armamentos o sistemas de vigilancia que pudieran “causar daño general”. Este cambio en la dirección de la ética corporativa fue anunciado el 4 de febrero de 2025, reflejando un giro significativo en la postura de la empresa respecto a aplicaciones potencialmente sensibles de la IA.
Desde 2018, Google había incluido entre sus “Principios de IA” una sección clara sobre “Aplicaciones de la IA que no perseguiremos”, que prohibía expresamente la creación de armas y tecnologías de vigilancia que violaran normas internacionales aceptadas. Sin embargo, la nueva versión de estos principios, que fue revisada recientemente, omite estas restricciones, optando por un enfoque más amplio y menos específico en cuanto a la aplicación de la IA.
El gigante tecnológico estadounidense Google eliminó el lenguaje que prometía no perseguir “armas u otras tecnologías cuyo propósito principal o implementación sea causar o facilitar directamente daños a personas”, “tecnologías que recopilen o utilicen información para vigilancia violando normas internacionalmente aceptadas” y “tecnologías cuyo propósito contravenga principios ampliamente aceptados del derecho internacional y los derechos humanos”.
En su defensa, Google, a través de un comunicado de Demis Hassabis, CEO de Google DeepMind, y James Manyika, vicepresidente sénior de tecnología y sociedad, subrayó la necesidad de adaptarse a un “paisaje geopolítico cada vez más complejo” y a la competencia global por el liderazgo en IA. Argumentaron que las democracias deben liderar el desarrollo de la IA, guiadas por valores fundamentales como la libertad, la igualdad y el respeto por los derechos humanos, sin especificar cómo se alinearán estos ideales con el desarrollo de tecnologías potencialmente perjudiciales.
La comunidad tecnológica y los observadores internacionales están ahora atentos a cómo este cambio en la política de Google podría afectar no solo a su imagen y a la confianza pública, sino también a la carrera armamentística de la IA a nivel mundial. La pregunta que queda en el aire es cómo se equilibrará la innovación tecnológica con los principios éticos en un mundo donde la IA tiene el potencial de redefinir tanto la seguridad como la vigilancia.
CONTRA LA CENSURA: Si le gustó nuestro trabajo apoye a KontraInfo con su suscripción. No recibimos ni recibiremos jamás dinero de ONG's ni partidos políticos. Por hacer un periodismo alternativo venimos siendo sistemáticamente censurados y desmonetizados.
*Ayúdenos con su suscripción, ingresando a este enlace.*Donaciones vía Bitcoin: 1PMbB5aRnfTEhvrBHtfkXKfDS9BsAkyh1U
*Colaboración por transferencia al Alias desde Argentina: ffrank8.ppay *Para donaciones internacionales, desde afuera de la Argentina, puede usar Bitcoin o realizar su aporte a través de WESTERN UNION, ingresando a www.westernunion.com y enviando su donación al director del sitio, usando como datos:
-Nombre del destinatario: Fausto Miguel Frank
-Lugar donde se recibirá la donación: Bahía Blanca, Argentina.
IMPORTANTE: guarde el "número de control de envío de dinero" (MTCN) y envíenos el monto destinado, número MTCN, nombre del donante y localidad de origen a nuestro email: info@kontrainfo.com Si va a reproducir este material, cite la fuente: www.kontrainfo.com