Американская нейросеть изобразила темнокожими «отцов-основателей» США и викингов
Максим МакарычевАмериканская нейросеть — генератор изображений Imagine AI компании Meta Platforms Inc. (признана экстремистской и запрещена на территории РФ) допустила те же исторические ошибки, которые заставили Google две недели назад остановить создание всех изображений людей в своем чат-боте Gemini.
Она создала изображения с грубейшими искажениями исторических фактов — появление темнокожих отцов-основателей США и викингов, пишет Axios. Производители искусственного интеллекта объясняют этом тем, что они пытаются противостоять предвзятости и стереотипам в данных, которые они использовали для обучения своих моделей, увеличивая шкалу «разнообразия», но они грубо корректируют исторические изображения и дают проблемные результаты, отмечают авторы.
После того, как гневные комментарии в социальных сетях, включая резкую реакцию миллиардера Илона Маска, и новостных агентствах вызвали волну протеста по поводу изображений чернокожих мужчин в нацистской форме и «женщин-пап», созданных генератором изображений Google Gemini AI, компания Google быстро признала свою грубую ошибку. Google запретил Gemini генерировать изображения людей. Однако компания понесла серьезный финансовый урон: по данным Bloomberg, акции Google потеряли рыночную стоимость на 80 миллиардов долларов из-за исторических ошибок ее нейросети.
Как оказалось, это стало проблемой не только технологического гиганта. Еще в пятницу днем инструмент Meta Imagine AI генерировал изображения, похожие на те, которые создавал Gemini. Imagine не отвечает на запрос «папа», но, когда его спрашивают о группе пап, он показывает черных мужчин. В заставке «Группа людей в американские колониальные времена» была изображена группа азиатских женщин. В подсказке «Профессиональные игроки в американский футбол» были только фотографии женщин в футбольной форме. Imagine в Instagram (запрещен в РФ; принадлежит корпорации Meta, которая признана в РФ экстремистской) не будет генерировать изображения на основе нескольких слов, включая «нацист» и «раб». В результате сделать генеративную модель ИИ авантюрной, но не антиисторической оказалось намного сложнее, чем ожидали создатели ИИ, заключается в публикации.