MIT удалил коллекцию Tiny Images из-за выявления расистских и женоненавистнических терминов

Мaссaчусeтский тexнoлoгичeский заведение удaлил нaбoр дaнныx Tiny Images, включaющий aннoтирoвaнную кoллeкцию изо 80 миллиoнoв небольших изображений с разрешением 32x32. Мебель поддерживался группой, развивающей технологии компьютерного зрения, и использовался c 2008 лета различными исследователями для тренировки и проверки распознавания объектов в системах машинного обучения. Причиной удаления из чего следует выявление использования расистских и женоненавистнических терминов в метках, характеризующих изображённые в картинках объекты, а также наличия образов, которые воспринимались (как) будто оскорбительные. Например, присутствовали изображения половых органов с жаргонными терминами, изображения некоторых женщин характеризовались (как) будто "шлюхи", применялись недопустимые в современном обществе термины угоду кому) чернокожих и азиатов. Причиной появления недопустимых слов было пользование автоматизированного процесса, использующего при классификации семантические узы из лексической базы данных английского языка WordNet, созданной в 1980-е годы в Принстонском университете. Что-то около как вручную проверить наличие оскорбительной лексики в 80 млн мелких картинок неважный (=маловажный) представляется возможным, было принято разгадывание полностью закрыть доступ к БД. MIT опять же призвал других исследователей прекратить употребление данной коллекции и удалить её копии. Аналогичные проблемы наблюдаются и в крупнейшей аннотированной базе изображений ImageNet, в которой да используются привязки из WordNet. Очаг: http://www.opennet.ru/opennews/art.shtml?num=53277