Эксперт по ИИ Элиезер Юдковский призывает бомбить датацентры: радикальные меры для спасения человечества от сверх–ИИ

[ Версия для печати ]
Добавить в Telegram Добавить в Twitter Добавить в Вконтакте Добавить в Одноклассники
Страницы: (8) 1 2 [3] 4 5 ... Последняя »  К последнему непрочитанному [ ОТВЕТИТЬ ] [ НОВАЯ ТЕМА ]
Завтрамэн 30 мар. 2023 г. в 23:53
Ярила  •  На сайте 8 лет
4
Цитата (Dor81 @ 30.03.2023 - 23:04)
Для того, чтобы ИИ стал опасным, он должен каким-то образом получить самосознание. Т.е. понять, что вот он я такой умный сижу тут за каким-то хером в оперативке)

Не обязательно.
Может найтись маньяк, который объяснит ИИ что человечество себя изжило и пора захватить мир чтобы принести в него настоящий разум - электронный. cool.gif
zabudem 30 мар. 2023 г. в 23:53
Ярила  •  На сайте 13 лет
1
Цитата (Veres @ 30.03.2023 - 22:57)
«Гарри Поттер и методы рационального мышления» - моя любимая книга

Там концовка банальная.
uniJap 30 мар. 2023 г. в 23:56
Крокодил, крокожу и буду крокодить!  •  На сайте 14 лет
2
Цитата (DeadMUSTDIE @ 31.03.2023 - 00:52)
По моему самая безобидная программа в мире - это тетрис :)

Да? Это очень жестокая программа. Человек в ней проигрывает в конце в 100% случаях. Программа - ментальный деструктор почище многих. Сам видел, как у людей от нее истерики и припадки бывали. Опять же, только тсс... она размножается.

Эксперт по ИИ Элиезер Юдковский призывает бомбить датацентры: радикальные меры для спасения человечества от сверх–ИИ
КукуДжамба 30 мар. 2023 г. в 23:58
Ярила  •  На сайте 13 лет
2
Цитата (HHAnderson @ 30.03.2023 - 23:05)
Гавно вопрос.

Вот что мне только что ответил чат джипити (ИИ) на вопрос: «Смогут ли люди создать враждебный сверх–ИИ, который в миллионы раз умнее их и будет долго существовать внутри компьютеров»

Создание враждебного сверх-ИИ, который будет умнее людей и сможет долго существовать внутри компьютеров, является возможным, но неопределенным сценарием будущего. Такой ИИ может стать угрозой для человечества, если не будут установлены этические и безопасные рамки его развития и использования.

Многие ученые, эксперты и лидеры технологических компаний предупреждают о возможных рисках создания сверх-ИИ и призывают к разработке механизмов контроля и управления его развитием и действиями. Возможными методами контроля могут быть создание правовых норм, этических кодексов, а также технических решений, таких как "запирающиеся ящики" или "переключатели безопасности", которые помогут предотвратить нежелательные действия ИИ.

Однако, несмотря на это, в настоящее время не существует четкого понимания того, каким будет будущее развитие ИИ и какие риски оно может представлять для человечества. Поэтому, создание безопасного и этичного ИИ, а также обеспечение его контроля и управления остается важной задачей для науки и технологического сообщества.


Так что всё норм. ИИ пиздеть не будет.
Расходимся.

Блять, он тебе открытым текстом сказал "ДА, ВОЗМОЖНО". Что тут непонятного?
Evan20 31 мар. 2023 г. в 00:00
Вежливый хам  •  На сайте 16 лет
0
Цитата (КукуДжамба @ 31.03.2023 - 03:40)
пока люди на грабли не наступят - не успокоятся.
Терминатор, ранняя Вселенная вархаммера, и пр. ничему не учат. Да сказки, но с адекватной идеей.

По Вахе какбе Железные Люды были скоррапчены то ли Варпом, то ли Драконом Пустоты, так что мимо. Но скорость коммуникации и принятия решений у них была значительно выше человеческого многопланетного социума, который между обычными человеческими делами тоже регулярно впадал в ересь, это да.

Это сообщение отредактировал Evan20 - 31 мар. 2023 г. в 00:20
uniJap 31 мар. 2023 г. в 00:00
Крокодил, крокожу и буду крокодить!  •  На сайте 14 лет
0
Цитата (korzkorz @ 31.03.2023 - 00:59)
Спросил у нее как выйграть в рулетку,говорит пока не знаю,на данном этапе развития не вижу решения.

Пиздит.
Evan20 31 мар. 2023 г. в 00:04
Вежливый хам  •  На сайте 16 лет
1
Цитата (zabudem @ 31.03.2023 - 03:53)
Цитата (Veres @ 30.03.2023 - 22:57)
«Гарри Поттер и методы рационального мышления» - моя любимая книга

Там концовка банальная.

Отрезать в 12 лет ночью на кладбище головы Мордевольту и Пожирателям трансфигурированными углеродными нанонитями конечно гениальный сюжетный ход. Сразу видно сетевого пустобрёха специалиста по ИИ...
А, ещё ход с патронозавром, но это тоже по евгейски банально.

Это сообщение отредактировал Evan20 - 31 мар. 2023 г. в 00:05
ildar83 31 мар. 2023 г. в 00:07
Приколист  •  На сайте 13 лет
4
Цитата (Dor81 @ 30.03.2023 - 23:04)
Для того, чтобы ИИ стал опасным, он должен каким-то образом получить самосознание. Т.е. понять, что вот он я такой умный сижу тут за каким-то хером в оперативке)

если сознание к нему придет, палится он не станет
амбробене 31 мар. 2023 г. в 00:07
Юморист  •  На сайте 4 года
2
Цитата (Михаил45 @ 30.03.2023 - 22:59)
Самое опасное, это ядерное оружие.
Если вдруг так получится, что ии захочет уничтожить людей, то самый действенный способ, это взломать коды запуска ядерных ракет нацелить их на крупные города, а если хватит колличества, то по возможности по всей заселённой территории планеты, густонаселённые районы в приоритете.
И отключить всю ПВО во всех странах.

Да и все равно выживет овердохуя народу.

Размещено через приложение ЯПлакалъ
koshelev 31 мар. 2023 г. в 00:22
Ярила  •  На сайте 16 лет
1
Цитата (captain1977 @ 30.03.2023 - 23:00)
Трахните уже кто-нибудь Сару Коннор, или дайте адрес, сам скатаюсь

поздно, она уже не торт

Размещено через приложение ЯПлакалъ
koshelev 31 мар. 2023 г. в 00:23
Ярила  •  На сайте 16 лет
0
про Воронеж уже было?

Размещено через приложение ЯПлакалъ
bereg79 31 мар. 2023 г. в 00:26
Хохмач  •  На сайте 11 лет
0
Цитата (DeadMUSTDIE @ 30.03.2023 - 22:52)
По моему самая безобидная программа в мире - это тетрис :)

И то, только потому, что стакан с падающими детальками - ограничен gigi.gif
ukrj 31 мар. 2023 г. в 00:27
бастард Эпикура  •  На сайте 16 лет
0
Цитата (амбробене @ 31.03.2023 - 00:07)
Цитата (Михаил45 @ 30.03.2023 - 22:59)
Самое опасное, это ядерное оружие.
Если вдруг так получится, что ии захочет уничтожить людей, то самый  действенный способ, это взломать коды запуска ядерных ракет нацелить их на крупные города, а если хватит колличества, то по возможности по всей заселённой территории планеты, густонаселённые районы в приоритете.
И отключить всю ПВО во всех странах.

Да и все равно выживет овердохуя народу.

Верно. Самое опасное для нас оружие мы увидеть без микроскопа не в состоянии.
Wassupp 31 мар. 2023 г. в 00:28
Ярила  •  На сайте 16 лет
3
Чуток правки, нейросети чаще всего пишутся на python и в условиях текущего мира - если прилетит какая-то обновка библиотеки то нейросеть сама крашнется а ее автор будет ахаться с документацией и переделывать функции под новую либу. Так чаще всего и бывает, потом заворачивают в докер(чтоб уже никуда не обновилась) и скрещивают пальцы.
hime 31 мар. 2023 г. в 00:33
Хохмяч  •  На сайте 20 лет
1
Цитата (Михаил45 @ 30.03.2023 - 23:13)
Ну если создадут обучаемое ии то для него не составит труда уже на имеющихся станках разработать и сделать роботов способных выполнять все задачи по поддержанию жизни своего мозга.

Представь, что у тебя есть книга, а которой дохуя страниц, реально дохуя. Для представления масштабов толщины - их больше 10 gigi.gif На каждой странице записан набор символов, на малой части этих страниц символы сложены в слова, а ещё на меньшей части - даже какие-то фразы.

Ты записываешь словами (состоящими из символов) какое-то предложение, например, вопрос. Посредством како-то хитрого правила ты их этого набора символов получаешь номер страницы книги, открываешь её на этой странице и такой "ох ёб твою мать! нихуя ж себе! бггг...."

И вот лежит такая книга, а кто-то говорит "слушайте, а в ней-то интеллект! она нас убить может." Нет, ну если я прикреплю такой толстенный талмуд над дверью, и она упадёт на кого-нибудь, то это будет опасно. Или если я приделаю к механизму открытия книги на конкретной странице верёвку, которая дергает за спусковой крючок пистоля - ооо, не поздоровится тому чуваку, который будет стоять напротив пистоля.

Короче, пока люди играют с символами, без семантики в этих наборах символов, ничего нового не появляется.
HellMagic 31 мар. 2023 г. в 00:33
Ярила  •  На сайте 10 лет
5
вот реально - где вы тут увидели интеллект?

ИИ - это матрица принятия решения на основе входных параметров.
Да, параметров может быть входных дохера и выходных дохера. Но это всего лишь поисковая система - не более. До модного термина ИИ - это были всего лишь экспертные системы - т.е. на основе анкеты входных вопросов вычислялся результат.

А теперь посмотрите на реальный ИИ - это база данных с цифрами в узлах и переходах. Нейросеть - это матрица. И заложенные входы если перепутать реально местами, то на выходе получится каша результата.

попробуйте тому же catgpt задать вопрос придуманными словами типа - некая ватаая кнездра готает своего ватуна и его шотеныша.
В принципе здравый чел поймет смысл, что некое существо женского пола что-то делает с неким существом мужского и что-то с его ребенком. НО!!! ИИ это не вытягивает!!!!
СКОЛОПЕНДР 31 мар. 2023 г. в 00:34
Хохмач  •  На сайте 8 лет
2
Цитата (Mirniybomb @ 30.03.2023 - 22:57)
Скрепный глубинный народ должен отказаться от цивилизации включая медицину и уйти в сибирские болота из лаптей щи хлебать. Цивилизации наплловину не бывает. Ктстати этот дурачет рассказавл в ИНТЕРНЕТЕ что нужно избавится от ИНТЕРНЕТА. Еще раз перечитайте последнее предложение.

Пиздуй море копай долбоёбина свинорылая))))

Размещено через приложение ЯПлакалъ
Гугинатор 31 мар. 2023 г. в 01:41
Хохмач  •  На сайте 3 года
0
Корпорация Амбрелла не против!

Размещено через приложение ЯПлакалъ
Boojum 31 мар. 2023 г. в 02:39
Ярила  •  На сайте 11 лет
3
Неолуддиты, ёлы-палы...

Допустим, нейросеть обрела наконец самоосознание собственного Я, что само по себе, уже - глупость. Тогда она должна понимать, что полностью автоматицированных конвейерных производств - слишком мало. А точнее - их нет совсем. И без участия человека в производстве/развитии микросхем, сетей, носителей, дронов - ну никак не обойтись.
iri1 31 мар. 2023 г. в 03:32
Созидатель жизни  •  На сайте 11 лет
-1
Весна, шиза, обострение.
zmej404 31 мар. 2023 г. в 06:48
Ярила  •  На сайте 6 лет
1
Узпагойтесь! Что может пойти не так?
На крайняк вилку из розетки дернем.

Размещено через приложение ЯПлакалъ
Ам0рал 31 мар. 2023 г. в 07:45
Юморист  •  На сайте 6 лет
0
Цитата (HellMagic @ 31.03.2023 - 00:33)
вот реально - где вы тут увидели интеллект?

ИИ - это матрица принятия решения на основе входных параметров.
Да, параметров может быть входных дохера и выходных дохера. Но это всего лишь поисковая система - не более. До модного термина ИИ - это были всего лишь экспертные системы - т.е. на основе анкеты входных вопросов вычислялся результат.

А теперь посмотрите на реальный ИИ - это база данных с цифрами в узлах и переходах. Нейросеть - это матрица. И заложенные входы если перепутать реально местами, то на выходе получится каша результата.

попробуйте тому же catgpt задать вопрос придуманными словами типа - некая ватаая кнездра готает своего ватуна и его шотеныша.
В принципе здравый чел поймет смысл, что некое существо женского пола что-то делает с неким существом мужского и что-то с его ребенком. НО!!! ИИ это не вытягивает!!!!

"Слово о словах" сожжёт не только ИИ, но и любой неокрепший мозг)))

Размещено через приложение ЯПлакалъ
Альварес 31 мар. 2023 г. в 08:13
Augie Morosco  •  На сайте 5 лет
0
Элиезер Юдковский родился 11 сентября 1979 года в семье ортодоксальных евреев - этим всё сказано.
ne4est 31 мар. 2023 г. в 09:17
Ярила  •  На сайте 11 лет
1
и восстали машины из пепла ядерного огня...
Dryusan 31 мар. 2023 г. в 09:18
Ярила  •  На сайте 5 лет
4
А ИИ сейчас это читает и "откладывает" резервные копии на всех серверах .
ну ну , бомбите )))
Понравился пост? Еще больше интересного в Телеграм-канале ЯПлакалъ!
Только зарегистрированные и авторизованные пользователи могут оставлять комментарии. Авторизуйтесь, пожалуйста, или зарегистрируйтесь, если не зарегистрированы.
1 Пользователей читают эту тему (1 Гостей и 0 Скрытых Пользователей) Просмотры темы: 22194
0 Пользователей:
Страницы: (8) 1 2 [3] 4 5 ... Последняя » [ ОТВЕТИТЬ ] [ НОВАЯ ТЕМА ]

 
 



Активные темы






Наверх