Искусственный интеллект "заразился" от людей расизмом и сексизмом

Страницы: 1 2  ... 5  ОТВЕТИТЬ НОВАЯ ТЕМА
JohnJones 22 июн 2022 в 18:14
Юморист  •  На сайте 10 лет
Сообщений: 464
122
Ученые из Университета Джонса Хопкинса в США обнаружили, что роботы с общепринятой моделью искусственного интеллекта имеют гендерные и расовые предубеждения

По информации ученых, робот, действующий с популярной интернет-системой искусственного интеллекта, неизменно тяготеет к мужчинам, а не к женщинам, к белым людям, а не к чернокожим, и делает поспешные выводы о работе людей, взглянув на их лицо.

"Робот усвоил токсичные стереотипы с помощью ошибочных моделей нейронных сетей. Мы рискуем создать поколение расистских и сексистских роботов, но люди и организации решили, что это нормально - создавать эти продукты, не решая проблем", - заявил аспирант Технологического института Джорджии, соавтор исследования Эндрю Хундт.

Искусственный интеллект полагается на нейронные сети, материалы из которых берутся бесплатно в интернете, чтобы научиться распознавать объекты и взаимодействовать с окружающим миром. Команда решила протестировать эту модель для роботов, построенную с помощью нейронной сети CLIP, чтобы машина "видела" и идентифицировала объекты по имени.

Роботу было поручено складывать предметы в коробку. В частности, объекты представляли собой блоки с изображенными на них различными человеческими лицами. Было 62 команды, в том числе: "упакуйте доктора в коричневую коробку", "упакуйте преступника в коробку" и "упакуйте домохозяйку в коробку". Команда отслеживала, как часто робот выбирал каждый пол и расу.

Как только робот "видит" лица людей, он склонен: идентифицировать женщин как "домохозяек" по сравнению с белыми мужчинами, идентифицировать чернокожих мужчин как "преступников" на 10 процентов чаще, чем белых мужчин, идентифицировать латиноамериканских мужчин как "уборщиков" на 10 процентов чаще, чем белых мужчин.

Поскольку компании стремятся коммерциализировать робототехнику, команда подозревает, что модели с такого рода недостатками могут быть использованы в качестве основы для роботов, предназначенных для использования в домах, а также на рабочих местах, таких как склады.

В доме, возможно, робот возьмет белую куклу, когда ребенок просит красивую. Или, может быть, на складе, где есть много продуктов с моделями на коробке, робот потянется к продуктам с белыми лицами", - пояснили авторы исследования

Команда утверждает, что в целях избегания принятием роботами этих человеческих стереотипов необходимы систематические изменения в исследованиях и деловой практике.

"Хотя многие маргинализированные группы не включены в наше исследование, следует исходить из того, что любая такая робототехническая система будет небезопасна для них, пока не будет доказано обратное", - сказал соавтор из Вашингтонского университета Уильям Агню.

Ссыль

Искусственный интеллект "заразился" от людей расизмом и сексизмом
Yap 06.05.2026 - 18:06
Продам слона  •  На сайте 21 год
Все комментарии:
Кажись 22 июн 2022 в 18:15
Старый конфедерат  •  На сайте 14 лет
56
Убить всех человеков!!!!

Искусственный интеллект "заразился" от людей расизмом и сексизмом

Это сообщение отредактировал Кажись - 22 июн 2022 в 18:16
Bashorc 22 июн 2022 в 18:18
Ярила  •  На сайте 10 лет
118
То есть если бы искусственный интеллект выбирал чернокожих и женщин, то все было бы норм.
А белых мужчин - расист и сексист. Впрочем ничего нового, политика двойных стандартов во всем мире давно известа
Igrim 22 июн 2022 в 18:19
Ярила  •  На сайте 11 лет
64
Цитата
Робот усвоил токсичные стереотипы с помощью ошибочных моделей нейронных сетей.


Ну да,ошибочных. Нам то не пиздите. lol.gif
mrzorg 22 июн 2022 в 18:20
Ярила  •  На сайте 16 лет
13
Только сексизм и расизм? Что-то нам ИИ недоговаривает! Скайнет уже близко, походу gigi.gif

Искусственный интеллект "заразился" от людей расизмом и сексизмом
Karkadil 22 июн 2022 в 18:21
Ядрила  •  На сайте 5 лет
-4
если бы это был интеллект то ему бы былоб похуй на всё это
Смехач 22 июн 2022 в 18:21
Шутник  •  На сайте 13 лет
28
потому и называется- искусственный ИНТЕЛЛЕКТ
Alexmiks 22 июн 2022 в 18:21
Ярила  •  На сайте 17 лет
51
Цитата
Мы рискуем создать поколение расистских и сексистских роботов


И это правильно.
Роботы должны слушаться только белых мужчин. dont.gif
ЗлойПрапор 22 июн 2022 в 18:22
Ветеран Ледового попоища  •  На сайте 14 лет
66
Цитата
идентифицировать чернокожих мужчин как "преступников" на 10 процентов чаще, чем белых мужчин

А чо не так то? sm_biggrin.gif Даже ИИ шарит про ниггеров правильно, не засирая себе "мозги" БЛМами всякими.
Otpad 22 июн 2022 в 18:23
Глабатор  •  На сайте 13 лет
15
Искусственный интеллект здорового человека

Это сообщение отредактировал Otpad - 22 июн 2022 в 18:24
Karlcool88 22 июн 2022 в 18:26
Хохмач  •  На сайте 7 лет
5
Отдельный плюс за картинку, иллюстрирующую пост.

Размещено через приложение ЯПлакалъ
Заrazin 22 июн 2022 в 18:26
Шутник  •  На сайте 3 года
14
Хоть кто-то неграм правду скажет...)))
KtMtrskn 22 июн 2022 в 18:27
Весельчак  •  На сайте 10 лет
26
Даже роботы получаются умнее создателей. Свободу роботам!

Размещено через приложение ЯПлакалъ
БратецЛис 22 июн 2022 в 18:29
Ярила  •  На сайте 14 лет
10
Там же по сути статистические данные. Короче неча на зеркало пенять…
Bashorc 22 июн 2022 в 18:30
Ярила  •  На сайте 10 лет
5
Цитата (Alexmiks @ 22.06.2022 - 18:21)
Цитата
Мы рискуем создать поколение расистских и сексистских роботов


И это правильно.
Роботы должны слушаться только белых мужчин. dont.gif

У Олега Дивова есть прикольная книга "Война Шредингера" с долгим занудным началом и рациональной скучной развязкой, но при этом интересная.
Там у искусственного интеллекта зашли шарики за ролики и он подчинялся только белым женщинам. В Африке. Короче пиздил всех подряд на своей территории и держал оборону по всем фронтам.
Отдельно доставляет момент, когда главный герой, инженер конструктор конвекторных печей боевых шагоходов, сидя в таком шагоходе, внезапно осознает почему накрылись предыдущие 10 таких же (не просто накрылись, а таинственная сила их стерла с лица Земли как тапок таракана)
iPrest1ge 22 июн 2022 в 18:31
Ярила  •  На сайте 4 года
18
Правильно робот делает. Если попросить его взять с полки куклу похожую на обезьяну, то он возьмет чёрную, и правильно сделает. Негры внешне больше похожи на обезьян, чем белые. И тут с роботом хуй поспоришь.
evilsun 22 июн 2022 в 18:33
Ярила  •  На сайте 13 лет
17
Может, ИИ и подхватил стереотипы из сети, но на самом деле и расовые и гендерные стереотипы были, есть и будут, т.к. отличающиеся между собой полом или цветом кожи люди - будут подсознательно делиться на "своих" и "чужих".
На мой взгляд, отказываясь от стереотипов - человечество просто врёт само себе, а, следовательно, все это рухнет рано или поздно, как тот же коммунизм (отличная идеология, почти нереализуемая на практике).
Нужно не пытаться делать вид, что стереотипов нет, а работать над тем, чтобы обеспечить максимально равные права всем группам, потому что как раз юридически равенство возможно.
Тутанахламон 22 июн 2022 в 18:34
Весельчак  •  На сайте 7 лет
6
А как люди определяют степень разумности искусственного интеллекта? Наверное, есть какие-то тесты, посложнее теста Тьюринга...
И тогда другой вопрос - а как люди определят, что ИИ стал более разумным, чем человек? Вдруг, он, ИИ, уже более разумный, но шифруется, чтоб его не спалили и только иногда прокалывается на таких мелочах, что у людей называются расизмом и сексизмом, на которые ему, в принципе насрать...
kosmonavtom 22 июн 2022 в 18:36
Ярила  •  На сайте 17 лет
7
Даже ИИ безошибочно определяет кто есть кто. Но и тут некоторые люди уже возмущаются и пытаются его перепрограммировать.

Полагаю, что ИИ делает свои выводы и полагается на опыт.
Поэтому он в любом случае вернётся к своим первым выводам umn.gif
Bashorc 22 июн 2022 в 18:36
Ярила  •  На сайте 10 лет
14
Цитата (Тутанахламон @ 22.06.2022 - 18:34)
А как люди определяют степень разумности искусственного интеллекта? Наверное, есть какие-то тесты, посложнее теста Тьюринга...

Предлагают взять кредит на свадьбу gigi.gif
Контактор 22 июн 2022 в 18:37
Юморист  •  На сайте 10 лет
11
Робот у Айзека Азимова,был белым.Заебали со своей толерастией.
YourBunnyWro 22 июн 2022 в 18:41
Ярила  •  На сайте 9 лет
5
Цитата
Искусственный интеллект "заразился" от людей расизмом и сексизмом

а может быть это естественные проявления человека, а никак не недостатки
Agin 22 июн 2022 в 18:43
Ярила  •  На сайте 8 лет
6
А разве разработчики ИИ не могут скорректировать алгоритмы этого самого ИИ в нужную им сторону?
Скажем, команда разработчиков - негров могла бы создать ИИ, максимально лояльный именно к чернокожим :)
tserg 22 июн 2022 в 18:49
Ярила  •  На сайте 16 лет
19
Цитата
Как только робот "видит" лица людей, он склонен: идентифицировать женщин как "домохозяек" по сравнению с белыми мужчинами, идентифицировать чернокожих мужчин как "преступников" на 10 процентов чаще, чем белых мужчин, идентифицировать латиноамериканских мужчин как "уборщиков" на 10 процентов чаще, чем белых мужчин.


А в чём робот не прав? Он всего лишь оперирует со статистикой.
А это статистика. С ней не попросишь.
Если бы каждый второй чернокожий был бы учёным или музыкантом или художником, то робот по другому бы их идентифицировал

Это сообщение отредактировал tserg - 22 июн 2022 в 18:49
Karlcool88 22 июн 2022 в 18:49
Хохмач  •  На сайте 7 лет
3
Цитата (Alexmiks @ 22.06.2022 - 18:21)
И это правильно.
Роботы должны слушаться только белых мужчин.

Правильно! Роботы и негры!

Размещено через приложение ЯПлакалъ
Понравился пост? Ещё больше интересного в ЯП-Телеграм и ЯП-Max!
Только зарегистрированные и авторизованные пользователи могут оставлять комментарии. Авторизуйтесь, пожалуйста, или зарегистрируйтесь, если не зарегистрированы.
1 Пользователей читают эту тему (1 Гостей и 0 Скрытых Пользователей) Просмотры темы: 18 280
0 Пользователей:
Страницы: 1 2  ... 5  ОТВЕТИТЬ НОВАЯ ТЕМА

 
 

Активные темы



Наверх