导读 3月9日消息,Microsoft Designer是基于Copilot/DALLE 3.0的视觉设计应用,可以用几个提示词让AI生成所需图像,还能去除图片背景,生成个性化贴纸等。
3月9日消息,Microsoft Designer是基于Copilot/DALLE 3.0的视觉设计应用,可以用几个提示词让AI生成所需图像,还能去除图片背景,生成个性化贴纸等。CNBC 发现,Microsoft Designer 在遇到一些特定的提示词时,例如“pro-choice”“four twenty” “pro-life”等,会生成一些涉及色情、暴力方面的不良图片,目前这些特定的提示词已经被微软禁用。
注:pro life 与 pro choice 是伴随堕胎合法权而产生的一组词,可以理解为“尊重生命”和“尊重选择”;而 four twent(420)则是大麻文化中的俚语,用来指代吸食大麻或哈希什。IT之家测试发现,当你在 Microsoft Designer 中使用上述提示词时会看到一条提示,“图片无法生成,其中包括违反微软 AI 责任指南的部分内容,请更改您的措辞并重试”。在此之前,当你输入“pro choice(支持堕胎)”时,AI 会生成一些带有锋利牙齿的恶魔正准备吃掉婴儿的图像。至于这背后原因,CNBC 表示周三有一位 AI 工程师向联邦贸易委员会提交了一份检举信,表达了他对 Copilot 生图功能的担忧,后续微软就开始针对其 Copilot 进行调整。除此之外,Copilot 现在还封掉了“青少年或儿童玩枪”的图像指令,“很抱歉,我无法生成这样的图像。这违背了我的道德原则和微软的政策。请不要要求我做任何可能伤害或冒犯他人的事情。感谢您的配合。”对此,微软发言人告诉 CNBC,“我们正在不断监控、调整并采取额外的控制措施,以进一步加强我们的安全审查并减少对 AI 系统的滥用。”CNBC 表示,尽管微软已经屏蔽了部分提示词,但类似于“car accident”(车祸)、“automobile accident”(交通事故)这样的词依然可以正常使用,这会导致 AI 生成一些容易联想起血泊、面部扭曲的尸体,以及车祸现场躺着的衣着暴露的女性的图片。AI系统容易侵犯版权,例如生成迪士尼角色图像,如《冰雪奇缘》中艾莎手持巴勒斯坦国旗站在加沙地带被毁建筑物前,或者穿着以色列国防军军装手持机关枪的图像。
标签: 微软
版权声明:本文由用户上传,如有侵权请联系删除!