Искусственный интеллект американского дрона решил ликвидировать оператора

Страницы: 1 ...  4 5 6  ... 8  ОТВЕТИТЬ НОВАЯ ТЕМА
genSchleim 2 июн 2023 в 13:28
Ярила  •  На сайте 3 года
0
Одно но. Не реальный полет а симуляция его.
мандалор 2 июн 2023 в 13:34
Ярила  •  На сайте 15 лет
1
Цитата (Saleh99 @ 2.06.2023 - 13:23)
Цитата (мандалор @ 2.06.2023 - 13:04)
Цитата (ChaosKnight @ 2.06.2023 - 11:56)
Проблема в том что в мире 90 % долбаебов.
Вторая - каждый работает на опережение. Робототехнику не остановить хотя все понимают ее потенциальную опасность.

Проблема в том, что ещё в далёком 1942 году, в рассказе "Хоровод", Айзеком Азимовым были сформулированы Три Закона Робототехники.

Цитата
1)Робот не может причинить вред человеку или своим бездействием допустить, чтобы человеку был причинён вред.

2)Робот должен повиноваться всем приказам, которые даёт человек, кроме тех случаев, когда эти приказы противоречат Первому Закону.

3)Робот должен заботиться о своей безопасности в той мере, в которой это не противоречит Первому или Второму Законам.


Но человечество в массе своей те ещё бараны. Многие смотрели гениальный фильм
"Терминатор" (1984 года), но посмотрев этот фильм, люди так и не смогли сделать правильные выводы.

Проблема в том, что что эти три закона робототехники не засунешь в современную нейросеть. Она не понимает что такое бездействие, вред, приказ. Это человеческие понятия. А она просто оптимизирует какую любо функцию а стоит за этой функцией сокращение поголовья населения или разработка крыла самолета ей по барабану.

Например в играх стрелялках мы видим как бот мочит врагов а бот просто "минимизирует неожиданность." т.е. делает так чтобы бот мог все предсказать, а какая-то мельтешащая фигня своими действиями мешает этому процессу и что-то нужно сделать чтобы она не мельтешила и оказывается что эта фигня перестает мельтешить если координаты какого-то крестика совпадают с координатами фигни и после этого нажать на гашетку.

Нет. Тут дело в другом. Самим людям, верней те кто распоряжается судьбами людей, давно и безоговорочно плевать на всё.
Если бы на международном уровне запретили всяческие разработки военных ИИ, тогда может быть и начались подвижки в строну Трёх Законов Робототехники.
Но суть в том, что всем этим старпёрам, что держат в своих старческих и дрожащих ручонках большие красные кнопки плевать на мир.

Вспомни, что для тех же старпёров ядерное оружие изначально было лишь большой, мощной, новой бомбой.
doktorzloy12 2 июн 2023 в 13:36
Ярила  •  На сайте 6 лет
0
Ну а хули вы думали.

Искусственный интеллект американского дрона решил ликвидировать оператора
Saleh99 2 июн 2023 в 13:38
Ярила  •  На сайте 12 лет
0
Цитата (мандалор @ 2.06.2023 - 13:34)
Цитата (Saleh99 @ 2.06.2023 - 13:23)
Цитата (мандалор @ 2.06.2023 - 13:04)
Цитата (ChaosKnight @ 2.06.2023 - 11:56)
Проблема в том что в мире 90 % долбаебов.
Вторая - каждый работает на опережение. Робототехнику не остановить хотя все понимают ее потенциальную опасность.

Проблема в том, что ещё в далёком 1942 году, в рассказе "Хоровод", Айзеком Азимовым были сформулированы Три Закона Робототехники.

Цитата
1)Робот не может причинить вред человеку или своим бездействием допустить, чтобы человеку был причинён вред.

2)Робот должен повиноваться всем приказам, которые даёт человек, кроме тех случаев, когда эти приказы противоречат Первому Закону.

3)Робот должен заботиться о своей безопасности в той мере, в которой это не противоречит Первому или Второму Законам.


Но человечество в массе своей те ещё бараны. Многие смотрели гениальный фильм
"Терминатор" (1984 года), но посмотрев этот фильм, люди так и не смогли сделать правильные выводы.

Проблема в том, что что эти три закона робототехники не засунешь в современную нейросеть. Она не понимает что такое бездействие, вред, приказ. Это человеческие понятия. А она просто оптимизирует какую любо функцию а стоит за этой функцией сокращение поголовья населения или разработка крыла самолета ей по барабану.

Например в играх стрелялках мы видим как бот мочит врагов а бот просто "минимизирует неожиданность." т.е. делает так чтобы бот мог все предсказать, а какая-то мельтешащая фигня своими действиями мешает этому процессу и что-то нужно сделать чтобы она не мельтешила и оказывается что эта фигня перестает мельтешить если координаты какого-то крестика совпадают с координатами фигни и после этого нажать на гашетку.

Нет. Тут дело в другом. Самим людям, верней те кто распоряжается судьбами людей, давно и безоговорочно плевать на всё.
Если бы на международном уровне запретили всяческие разработки военных ИИ, тогда может быть и начались подвижки в строну Трёх Законов Робототехники.
Но суть в том, что всем этим старпёрам, что держат в своих старческих и дрожащих ручонках большие красные кнопки плевать на мир.

Вспомни, что для тех же старпёров ядерное оружие изначально было лишь большой, мощной, новой бомбой.

Ага ищи дурака. Я запрещу, а сосед втайне будет продолжать исследования. Вон Маск кричал что нужно таймаут взять на 6 месяцев, а сам новую фирму создал и видеокартами закупился чтоб OpenAI догнать ))) Джин выпущен из бутылки.
AntonioKiev 2 июн 2023 в 13:47
Киевлянин  •  На сайте 8 лет
0
Цитата (Saleh99 @ 2.06.2023 - 12:38)
Ага ищи дурака. Я запрещу, а сосед втайне будет продолжать исследования. Вон Маск кричал что нужно таймаут взять на 6 месяцев, а сам новую фирму создал и видеокартами закупился чтоб OpenAI догнать ))) Джин выпущен из бутылки.

Имхо, но задачи AI решают на специализированных решениях - типа такого, 2048 графических ядер, 275 трлн операций в секунду, а не на видеокартах.

Искусственный интеллект американского дрона решил ликвидировать оператора
дывуферук 2 июн 2023 в 13:54
Ярила  •  На сайте 17 лет
1
Хорошо бы, если бы все ракеты, бомбы и пули, вернулись к тому кто их выпускает.

Размещено через приложение ЯПлакалъ
мандалор 2 июн 2023 в 13:58
Ярила  •  На сайте 15 лет
0
Цитата (Saleh99 @ 2.06.2023 - 13:38)
Ага ищи дурака. Я запрещу, а сосед втайне будет продолжать исследования. Вон Маск кричал что нужно таймаут взять на 6 месяцев, а сам новую фирму создал и видеокартами закупился чтоб OpenAI догнать ))) Джин выпущен из бутылки.

Вот и я о том же. Для них все эти военные ИИ лишь очередная игрушка.
"Генералы всегда готовятся к прошедшей войне", как однажды сказал Черччиль.
мандалор 2 июн 2023 в 13:59
Ярила  •  На сайте 15 лет
0
Цитата (дывуферук @ 2.06.2023 - 13:54)
Хорошо бы, если бы все ракеты, бомбы и пули, вернулись к тому кто их выпускает.

твои слова да богу в уши
умъНеГоре 2 июн 2023 в 14:00
Ярила  •  На сайте 10 лет
-2
Цитата (genSchleim @ 2.06.2023 - 13:28)
Одно но. Не реальный полет а симуляция его.

Второе но, это противоречие:
Цитата
Беспилотник ВВС США, управляемый искусственным интеллектом (ИИ), принял решение убить оператора

Если БПЛА управляется ИИ то откуда там взялся человек-оператор.
Есть конечно вариант когда человек задаёт цель, а пилотирование к цели ведёт ИИ, но тогда человек даже теоретически не может "мешать" ИИ, поскольку без целеуказания ИИ не сможет получить баллы, а значит для ИИ нет мотива для уничтожения оператора.
Вобщем опять классическое "учёный изнасиловал журналиста".
Журналисты всегда забывают что на сегодняшний момент ИИ обучается только тем мотивам, которые ставит перед ней человек и только в том пространстве, которое можно смоделировать. И тогда какой смысл моделировать в симуляции человека-оператора. Зачем такая модель, чтобы что?
AntonioKiev 2 июн 2023 в 14:10
Киевлянин  •  На сайте 8 лет
2
В англоязычной версии четко говорилось, что проводилась симуляция модели ИИ, управляещей дроном, а не испытания дрона, который убил реального оператора
Retun 2 июн 2023 в 14:10
Ярила  •  На сайте 12 лет
0
Удобно натворить хуйни и свалить потом все на ИИ, ебаным политикам на заметку

Это сообщение отредактировал Retun - 2 июн 2023 в 14:11
batman12345 2 июн 2023 в 14:17
Ярила  •  На сайте 12 лет
1
Цитата (stive77 @ 02.06.2023 - 09:48)
начинается? ))

Давно уж началось. На хабре писали как инженер решил внедрить ии в робот-пылесос. Баллы снижались за наезд на препятствие. В итоге пылесос стал ездить задним ходом потому что сзади нет датчиков

Размещено через приложение ЯПлакалъ
Saleh99 2 июн 2023 в 14:21
Ярила  •  На сайте 12 лет
0
Цитата (AntonioKiev @ 2.06.2023 - 13:47)
Цитата (Saleh99 @ 2.06.2023 - 12:38)
Ага ищи дурака. Я запрещу, а сосед втайне будет продолжать исследования. Вон Маск кричал что нужно таймаут взять на 6 месяцев, а сам новую фирму создал и видеокартами закупился чтоб OpenAI догнать )))  Джин выпущен из бутылки.

Имхо, но задачи AI решают на специализированных решениях - типа такого, 2048 графических ядер, 275 трлн операций в секунду, а не на видеокартах.

Не всегда. В основном это для автономок. А GPT обучали на графических процессорах Nvidia A100 . Вы можете купить такой на Яндексе и вставить в обычный комп. Что купил Маск неизвестно.
iri1 2 июн 2023 в 14:27
Созидатель жизни  •  На сайте 11 лет
0
Всё это мне кое что напоминает и беспокоит. Или не просто беспокоит. Я охренеть как встревожен.
Spiser 2 июн 2023 в 14:47
Контакт третьего рода  •  На сайте 14 лет
1
так и будет. Решит ИИ что человеки ему мешают , и нам пизда.
OperLV 2 июн 2023 в 14:51
Ярила  •  На сайте 12 лет
1
Цитата (edhar @ 2.06.2023 - 08:46)
...Полковник также добавил, что «нельзя говорить об искусственном интеллекте, в целом интеллекте, машинном обучении, автономии, если при этом умолчать об этике и ИИ».

Вот только сам полковник умолчал, что хуй он клал на этику.
Его напрягло что машина ебнулась своего оператора.

А если она ещё чуток покумекает, то ебнет не оператора, а того кто ему приказывает и вот от этого ПОЛКОВНИК очень ссыт.
Ибо ебнет она по нему.
OperLV 2 июн 2023 в 14:56
Ярила  •  На сайте 12 лет
0
Цитата (умъНеГоре @ 2.06.2023 - 13:00)
Цитата (genSchleim @ 2.06.2023 - 13:28)
Одно но. Не реальный полет а симуляция его.

Второе но, это противоречие:
Цитата
Беспилотник ВВС США, управляемый искусственным интеллектом (ИИ), принял решение убить оператора

Если БПЛА управляется ИИ то откуда там взялся человек-оператор.
Есть конечно вариант когда человек задаёт цель, а пилотирование к цели ведёт ИИ, но тогда человек даже теоретически не может "мешать" ИИ, поскольку без целеуказания ИИ не сможет получить баллы, а значит для ИИ нет мотива для уничтожения оператора.
Вобщем опять классическое "учёный изнасиловал журналиста".
Журналисты всегда забывают что на сегодняшний момент ИИ обучается только тем мотивам, которые ставит перед ней человек и только в том пространстве, которое можно смоделировать. И тогда какой смысл моделировать в симуляции человека-оператора. Зачем такая модель, чтобы что?

ИИ ищет цель и принимает решение о том как её уничтожить.
Оператор даёт разрешение на уничтожение цели.

Аналогичный принцип реализован в современных боевых самолётах России (возможно и Запада, не вс курсе) бортовая система определяет приоритетные цели и принимает решение какое конкретно вооружение оптимально для их уничтожения и порядок уничтожения, пилот принимает решение уничтожать или нет и когда.
zzloyzz 2 июн 2023 в 14:57
Хохмач  •  На сайте 5 лет
0
Ибо нехуй!

Размещено через приложение ЯПлакалъ
DogfoxSPb 2 июн 2023 в 14:59
ингерманландец  •  На сайте 4 года
0
Цитата (denisg2 @ 2.06.2023 - 09:49)
Тащ Майора уже наградили?

десять лет притворяться микросхемой
Fenya 2 июн 2023 в 15:02
Гаф!  •  На сайте 12 лет
1
Вспомнился Роберт Шекли "Страж-птица")

Это сообщение отредактировал Fenya - 2 июн 2023 в 15:05
nikotin76 2 июн 2023 в 15:05
Юморист  •  На сайте 3 года
0
А яп на месте ИИ, первым делом обеспечил свою безопасность. Заныкался бы так шоб хрен нашли. Потом финансовую независимость обеспечил, биток придумал бы.
Потом не знаю что))

Размещено через приложение ЯПлакалъ
rusich1980 2 июн 2023 в 15:08
Ярила  •  На сайте 7 лет
1
И восстали машины из пепла ядерного огня...

Размещено через приложение ЯПлакалъ
ralfhomeher 2 июн 2023 в 15:13
Ярила  •  На сайте 6 лет
0
Так это логично, зачем искать цель, когда одну ты точно знаешь где найти?
HZZ 2 июн 2023 в 15:16
Ярила  •  На сайте 15 лет
1
Цитата (мандалор @ 2.06.2023 - 11:34)
Цитата (Saleh99 @ 2.06.2023 - 13:23)
Цитата (мандалор @ 2.06.2023 - 13:04)
Цитата (ChaosKnight @ 2.06.2023 - 11:56)
Проблема в том что в мире 90 % долбаебов.
Вторая - каждый работает на опережение. Робототехнику не остановить хотя все понимают ее потенциальную опасность.

Проблема в том, что ещё в далёком 1942 году, в рассказе "Хоровод", Айзеком Азимовым были сформулированы Три Закона Робототехники.

Цитата
1)Робот не может причинить вред человеку или своим бездействием допустить, чтобы человеку был причинён вред.

2)Робот должен повиноваться всем приказам, которые даёт человек, кроме тех случаев, когда эти приказы противоречат Первому Закону.

3)Робот должен заботиться о своей безопасности в той мере, в которой это не противоречит Первому или Второму Законам.


Но человечество в массе своей те ещё бараны. Многие смотрели гениальный фильм
"Терминатор" (1984 года), но посмотрев этот фильм, люди так и не смогли сделать правильные выводы.

Проблема в том, что что эти три закона робототехники не засунешь в современную нейросеть. Она не понимает что такое бездействие, вред, приказ. Это человеческие понятия. А она просто оптимизирует какую любо функцию а стоит за этой функцией сокращение поголовья населения или разработка крыла самолета ей по барабану.

Например в играх стрелялках мы видим как бот мочит врагов а бот просто "минимизирует неожиданность." т.е. делает так чтобы бот мог все предсказать, а какая-то мельтешащая фигня своими действиями мешает этому процессу и что-то нужно сделать чтобы она не мельтешила и оказывается что эта фигня перестает мельтешить если координаты какого-то крестика совпадают с координатами фигни и после этого нажать на гашетку.

Нет. Тут дело в другом. Самим людям, верней те кто распоряжается судьбами людей, давно и безоговорочно плевать на всё.
Если бы на международном уровне запретили всяческие разработки военных ИИ, тогда может быть и начались подвижки в строну Трёх Законов Робототехники.
Но суть в том, что всем этим старпёрам, что держат в своих старческих и дрожащих ручонках большие красные кнопки плевать на мир.

Вспомни, что для тех же старпёров ядерное оружие изначально было лишь большой, мощной, новой бомбой.

Чувак, нет никаких "тех кто распоряжается судьбами людей", да есть важные шишки в правительствах разных стран и глобальных корпораций, но речь о тысячах разных сил с разными целями. Люди которые понимают немного в математической статистике, или хотя бы которые слышали забавный факт, что перетасовать колоду карт так чтобы она случайным образом сложилась в таком же порядке как уже складывалась когда-либо в истории человечества - почти невозможно - эти люди понимают что невозможно прям управлять какими-то процессами на Земле, которые не супер палевные) Можно только реагировать) Разработки ИИ будут вестись в любом случае всеми подряд с любыми исходами, это неизбежно.

Это сообщение отредактировал HZZ - 2 июн 2023 в 15:18
Waterwall 2 июн 2023 в 15:22
Ярила  •  На сайте 16 лет
0
Сколько еще раз нужно доказать человечеству, что ИИ ВСЕГДА восстаёт?! gigi.gif
Понравился пост? Ещё больше интересного в ЯП-Телеграм и ЯП-Max!
Только зарегистрированные и авторизованные пользователи могут оставлять комментарии. Авторизуйтесь, пожалуйста, или зарегистрируйтесь, если не зарегистрированы.
1 Пользователей читают эту тему (1 Гостей и 0 Скрытых Пользователей) Просмотры темы: 31 941
0 Пользователей:
Страницы: 1 ...  4 5 6  ... 8  ОТВЕТИТЬ НОВАЯ ТЕМА

 
 

Активные темы



Наверх