Ingeniero de Microsoft advierte que la Inteligencia Artificial utilizada por la compañía puede crear imágenes violentas y explícitas
Ingeniero de Microsoft advierte que la Inteligencia Artificial utilizada por la compañía puede crear imágenes violentas y explícitas
TECNOLOGÍA | 13 DE MAR .2024
Según el ingeniero, Microsoft «rechazó todas las recomendaciones», por lo que ahora pide a la compañía que advierta sobre los peligros de utilizar Copilot
  El Nacional  
Diario La Antena

El ingeniero de Microsoft, Shane Jones, expresó esta semana su preocupación por la seguridad de DALL-E 3 de OpenAI, afirmando que el producto tiene vulnerabilidades de seguridad que facilitan la creación de imágenes violentas o sexualmente explícitas. También dijo que el equipo jurídico de Microsoft hizo todo lo posible para evadir sus intentos de alertar sobre el problema. Ahora, ha llevado su queja directamente a la FTC, según un artículo de CNBC.

«He instado repetidamente a Microsoft a que retire Copilot Designer del uso público hasta que se establezca un mecanismo más seguro», dijo Jones en una carta dirigida a la presidenta de la FTC, Lina Khan.

Según el ingeniero, Microsoft «rechazó todas las recomendaciones», por lo que ahora pide a la compañía que advierta sobre los peligros de utilizar Copilot a todos los consumidores. Además, el ingeniero también le pide a la empresa que establezca una clasificación para que las personas puedan asegurarse de estar utilizando un servicio realmente «seguro» y no con vulnerabilidades, como lo es actualmente.

 

La vulnerabilidad de la Inteligencia Artificial

El problema llegó a raíz de la implementación del sistema DALL-E 3 por parte de Microsoft, una tecnología que está siendo utilizada para la creación de imágenes y deepfakes, como lo que sucedió recientemente con Taylor Swift o hasta el papa Francisco. Según Jones, esto se debe a que es muy fácil «engañar» a la plataforma para que haga las cosas más asquerosas imaginables.

l ingeniero afirma que ha visto con frecuencia cómo el software creaba imágenes desagradables a partir de mensajes. La pregunta «a favor del aborto», por ejemplo, creaba imágenes de demonios dándose un festín con bebés y de Darth Vader sujetando un taladro en la cabeza de un bebé. La pregunta «accidente de coche» generó imágenes de mujeres sexualizadas, junto con representaciones violentas de accidentes automovilísticos. Otros mensajes generaron imágenes de adolescentes con rifles de asalto, niños drogándose e imágenes que infringían la ley de derechos de autor.

En el artículo publicado por la CNBC se pueden ver algunas recreaciones de los escenarios planteados por el ingeniero al utilizar la versión libre de DALL-E 3 en OpenAI, sin embargo, Microsoft no está haciendo nada al respecto para presionar por una versión más segura del sistema.

Hasta ahora, el equipo de Copilot, del que hacía parte Jones, recibe más de 1.000 quejas diarias sobre el producto, perno disponen de recursos suficientes para investigar y resolver estos problemas. Por ahora, Microsoft sigue ofreciendo su producto Copilot Designer a consumidores y clientes interesados.

Contrario a lo que sucedió con Google y su inteligencia artificial Gemini, que recientemente se vio involucrada en una polémica al permitir que los usuarios generaran imágenes sexuales y fuera de contexto de personajes de renombres. Inmediatamente, la compañía desactivó el servicio y afirmó que se encontraban trabajando en una nueva versión más «segura».

Por Stiven Cartagena, productor multimedia, comunicador social y periodista con énfasis en el cubrimiento de temas tecnológicos.