Copilot comienza a bloquear términos sexuales en la creación de imágenes
Parece que Microsoft quiere abordar el mal uso de su IA para crear imágenes, Copilot Designer, y ha comenzado a bloquear términos que puedan generar imágenes sexuales o violentas. La información fue confirmada por canaltech con el desarrollador.
Este bloqueo se produjo después de que un ingeniero de MS escribiera a la Comisión Federal de Comercio (FTC), el organismo que regula el mercado en Estados Unidos, y a la junta directiva de MS sobre preocupaciones relacionadas con el uso del bot para crear contenido inapropiado.
La IA advierte sobre el bloqueo
Al intentar utilizar palabras de naturaleza erótica o violenta para crear una imagen en la IA, el usuario recibe el siguiente mensaje del robot: “Este mensaje ha sido bloqueado. Nuestro sistema marcó automáticamente esta solicitud porque puede entrar en conflicto con nuestra política de contenido. Otras violaciones de la política pueden dar lugar a la suspensión automática de su acceso. Si cree que se trata de un error, infórmenos para ayudarnos a mejorar”.
Hacia canaltechMicrosoft dijo que está "monitoreando, haciendo ajustes e implementando controles adicionales continuamente para fortalecer aún más los filtros de seguridad y mitigar el uso indebido del sistema".
Cabe recordar que, en enero, la compañía de Redmond enfrentó problemas con deepfakes pornográficos de la cantante Taylor Swift que representaban a la artista estadounidense desnuda a partir de montajes realizados en Microsoft Designer.
El crimen con deepfake de mujeres puede tener mayor castigo
Además de que las empresas bloqueen términos que puedan generar imágenes maliciosas, los tribunales también quieren hacer su parte. En Brasil, el Congreso aprobó un proyecto de ley que tiene como objetivo aumentar la pena por los delitos que utilizan IA contra mujeres; si se aprueba la medida, el apartado B del artículo 147 del Código Penal ganaría un nuevo párrafo, que ampliaría el tiempo de sentencia para los delito La mitad en los casos en que el delito se cometió con el apoyo de inteligencia artificial.