Рассылка Утопии
Изучаем феномены насилия, абьюза и гендерных различий со всех сторон. Читайте первыми главные новости по теме и наши новые тексты.

Google Translate по-сексистски переводит на английский. Мы выяснили, что и на русский тоже

ПО МНЕНИЮ РОСКОМНАДЗОРА, «УТОПИЯ» ЯВЛЯЕТСЯ ПРОЕКТОМ ЦЕНТРА «НАСИЛИЮ.НЕТ», КОТОРЫЙ, ПО МНЕНИЮ МИНЮСТА, ВЫПОЛНЯЕТ ФУНКЦИИ ИНОСТРАННОГО АГЕНТА
Почему это не так?

Преподавательница медицины из Венгрии Дора Варга заметила сексизм в алгоритмах Google Translate при переводе с гендерно-нейтрального венгерского языка на английский. Об этом она рассказала в твиттере. 

В венгерском языке нет местоимений «он», «она» и «оно», вместо них используют нейтральное слово «ö», которое переводят в зависимости от контекста. Когда речь идет о политиках или ученых, Google использует местоимение «он», а когда о мытье посуды, уборке или воспитании детей — «она». 

В ответах к посту Варги пользовательница из Эстонии написала, что в переводе с также гендерно-нейтрального эстонского языка на английский происходит то же самое. 

«Утопия» проверила, как Google Translate и «Яндекс.Переводчик» переводят «ö» на русский. При переводе с венгерского или эстонского на русский обе программы так же подбирают местоимения по традиционному для мужчин и женщин роду деятельности или описаниям. Например, «она красивая», «он профессор», «она готовит» или «он повар». 

В ноябре 2020 года ученые из Университета Нью-Йорка выяснили, что искусственный интеллект от Google, Microsoft и Amazon при распознавании лиц анализирует фотографии женщин-политиков по внешности, а мужчин – по роду деятельности и навыками. Например, мужчин алгоритм Google отметил ярлыками «бизнесмен», «чиновник», а женщин распознавали по понятиям «волосы», «улыбка» и «шея». Исследователи объяснили это некорректными стереотипами, которые разработчики загружали в программу для обучения.