Microsoft prohíbe el uso de la inteligencia artificial de OpenAI por parte de la policía de EE. UU.

Microsoft ha tomado la decisión de prohibir el uso de la inteligencia artificial desarrollada por OpenAI por parte de la policía de Estados Unidos. Esta medida surge como respuesta a la creciente preocupación en torno al uso de tecnologías de IA en actividades de vigilancia y policiales, especialmente en lo que respecta a posibles violaciones de derechos humanos y privacidad. La colaboración entre Microsoft y OpenAI había generado expectativas en el campo de la inteligencia artificial, pero la empresa ha optado por establecer límites éticos en cuanto al uso de esta tecnología. Esta decisión plantea interrogantes sobre el papel de la tecnología en la seguridad pública y la necesidad de establecer regulaciones claras para garantizar su uso responsable.

Index

Microsoft prohíbe a la policía de EE UU utilizar IA de OpenAI para reconocimiento facial

Microsoft ha tomado la decisión de prohibir que la policía de Estados Unidos utilice la inteligencia artificial generativa de OpenAI. Esta medida se ha implementado a través de la actualización del 'Código de Conducta de Azure OpenAI Service', restringiendo así el acceso a las herramientas de la compañía de Sam Altman.

La compañía de Redmond ha especificado que ninguna entidad policial tendrá acceso a la IA de OpenAI para utilizar modelos de análisis de texto, voz y reconocimiento facial. Esta prohibición se extiende a cualquier tecnología de reconocimiento facial en tiempo real en cámaras móviles utilizadas por cualquier organismo policial a nivel mundial.

Entre los modelos de OpenAI vetados para uso policial se encuentran GPT-3, GPT-4 y GPT-4 Turbo con los modelos Vision y Codex, además de DALL-E 2, DALL-E 3 y Whisper. Microsoft ha restringido también la identificación de personas mediante rostros, así como el análisis facial para deducir emociones, género o edad.

IA generativa de OpenAI vetada por Microsoft en servicios policiales estadounidenses

IA generativa de OpenAI vetada por Microsoft en servicios policiales estadounidenses

Los cambios en la política de Microsoft llegan tras el anuncio de Axon, fabricante de productos tecnológicos y de armas para militares y fuerzas del orden, sobre un dispositivo que utiliza el modelo de texto generativo GPT-4 de OpenAI. Esta acción generó preocupaciones en cuanto a posibles alucinaciones y prejuicios raciales derivados de los datos de entrenamiento.

A pesar de que no está confirmado si Axon estaba utilizando GPT-4 a través del servicio Azure OpenAI, la actualización de la política por parte de Microsoft podría estar relacionada con este suceso. OpenAI ya había restringido previamente el uso de sus modelos para reconocimiento facial a través de sus API.

Sigue leyendo sobre tecnología en nuestro portal y mantente informado con las últimas noticias del sector.

Patricia Martínez

Hola, soy Patricia, autora en El Noticiero. Me apasiona compartir las noticias más relevantes de actualidad, tanto a nivel nacional como internacional. Mi compromiso con la objetividad y la rigurosidad en la información es mi principal prioridad. ¡Te invito a descubrir las últimas novedades junto a mí en este periódico independiente!

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

Subir