人工智慧系统虽然能快速辨识和标记影像,不过近来却愈来愈多质疑,认为 AI 有偏见。最近 Google 有鉴于此,停用图片辨识 AI 工具的男女标籤,减少性别歧视。
Google 最近向开发者公告,Cloud Vision API 工具将不再使用「男人」和「女人」标籤,而改为类似「人」这类较笼统的标籤,避免 AI 系统的偏见。Google 解释,由于性别有时很难以外观判断,因此决定根据 Google《人工智慧原则》第二条「避免製造或加强不公平偏见」,移除相关标籤。
Google 的图片辨识系统常有争议,早在 2015 年就有人指黑人辨识成大猩猩,后来 2018 年仍然有人发现问题。之后 Google 制定《人工智慧原则》管理人工智慧开发,希望更有效避免偏见等情况出现。
- Google AI tool will no longer use gendered labels like ‘woman’ or ‘man’ in photos of people