Над нейросетью ChatGPT работали сотрудники из Кении, им платили меньше двух долларов в час. Они изучали материалы про убийства и сексуализированное насилие — Time

В нейросеть ChatGPT встроен «детектор», который отсеивает неэтичный контент до того, как его увидит пользователь. Для его «тренировки» компания OpenAI, которая разработала нейросеть, наняла низкооплачиваемых сотрудников из Кении, сообщает Time.

Издание выяснило, что с ноября 2021 года OpenAI при посредничестве компании Sama отправила аутсорсинговой фирме в Кении десятки тысяч текстовых фрагментов, некоторые из которых подробно описывали сексуализированное насилие над детьми, зоофилию, убийства, суициды, пытки, членовредительство и инцесты. Сотрудники должны были находить и помечать такие тексты. Один из работников Sama рассказал Time, что во время работы прочитал графическое описание секса между мужчиной и собакой в присутствии ребенка. В разговоре с изданием он назвал это «пыткой».

По данным издания, сотрудники получали от 1,32 до 2 долларов в час. Они должны были за девятичасовую смену прочитать 150-250 текстовых фрагментов и проставить им разметку. В каждом фрагменте было от 100 до более чем 1000 слов.

Сотрудники Sama могли посещать индивидуальные консультации, но все собеседники Time признались, что эти встречи оказались «редкими и бесполезными».

В феврале 2022 года OpenAI и Sama досрочно прекратили сотрудничество. По данным Time, перед этим OpenAI начала работать над другим проектом и попросила обработать 1400 неэтичных изображений. После этого руководство Sama объявило о завершении совместных проектов.

По словам собеседников Time, еще одной причиной, по которой Sama прекратила работу с OpenAI, стало февральское расследование журналистов о модераторах контента Facebook в Африке, которым приходилось за полтора доллара в час просматривать неэтичный контент.

Этот текст пришлось писать нам самим. Но есть задачи, с которыми нейросеть и правда поможет
Общество5 минут чтения

Источник: Time