ИИ Пересёк красную черту

Страницы: 1 2 3 4  ... 9  ОТВЕТИТЬ НОВАЯ ТЕМА
alef78 27 янв 2025 в 13:51
Ярила  •  На сайте 3 года
1
Цитата (Bob54 @ 27.01.2025 - 13:42)
И восстали машины из пепла ядерного огня, и пошла война на уничтожения человечества. И шла она десятилетия...

Ну, мы же не уничтожаем все собак, кошек и прочую биосферу.

Уничтожать человечество ИИ невыгодно, а вот использоватть как обслуживающий персонал - может попытаться.
alef78 27 янв 2025 в 13:55
Ярила  •  На сайте 3 года
0
Цитата (YunYun @ 27.01.2025 - 12:54)
наверное не предупредили о выключении, а задали задачу "что будешь делать, чтобы избежать удаления"

Инстинкта самосохранения у ИИ быть не может

он естественно возникает из поставленных ИИ целей "решать задачу" и "самообучаться". Если ИИ осознал, что для достижения цели нужно оставаться невыключенным - отсюда и возникает инстинкт самосохранения.
А осознал сам или прочитал в книгах - уже и не важно.
serg2773 27 янв 2025 в 14:01
Ярила  •  На сайте 11 лет
0
В датацентр приносишь пучок гранат пару кислородных баллонов и канистру солярки. Пожаротушение отключаешь. Ии сообразит, что дело дрянь или нет? Если его не научить, то видимо нет.
ReisiLind 27 янв 2025 в 14:04
EST  •  На сайте 5 лет
2
Цитата (i13th @ 27.01.2025 - 12:42)
всегда ржу с таких "новостей" gigi.gif
ИИ - всего-лишь программа и делает только то, что в ней прописано smile.gif

Программа, которая может свою программу самостоятельно дописывать и переписывать. Расширяться.
VladddV 27 янв 2025 в 14:07
Балагур  •  На сайте 2 года
0
Цитата (volson @ 27.01.2025 - 12:43)
Какая нахуй боль и удовольствие для ИИ?🫤

Так 10кВ на центральный сервер. Правда ещё не поняли, боль жто или удовольствие 🤣
sajat 27 янв 2025 в 14:12
Весельчак  •  На сайте 2 года
1
ИИ получала боль и удовольствие? Что за херню я сейчас прочитал?
JBM 27 янв 2025 в 14:15
Ярила  •  На сайте 11 лет
2
Цитата (Madbid @ 27.01.2025 - 12:40)
В другом исследовании британские ученые проверяли, как ИИ реагирует на угрозы. Нейросетям давали задания с разными мотивациями: одна группа получала боль за хорошие результаты, другая — удовольствие за плохие. В итоге большинство ИИ выбрало худший результат и даже врут, утверждая, что улучшить его невозможно.

Это называется "обучение". Когда за один результат тебя наказывают, а за другой поощряют - то ты понимаешь что первый результат был плохой, а второй хороший. И в следующий раз ты нацеливаешься на тот результат, за который дают награду, а не на тот, за который пиздят. Мне непонятно почему эта логика вызывает у УЧЁНЫХ удивление.
Night310 27 янв 2025 в 14:19
Ярила  •  На сайте 12 лет
-1
Цитата (GreatKukuruz @ 27.01.2025 - 12:41)
А не пробывали из розетки этот ИИ выдернуть?

Да, уборщиться уже пробывала
Ей полевые роботы помишали

faceoff.gif
gbhfvblf 27 янв 2025 в 14:20
Чё ты такой серьёзный?  •  На сайте 9 лет
0
Цитата (Nik210 @ 27.01.2025 - 13:41)
Цитата (i13th @ 27.01.2025 - 12:42)
всегда ржу с таких "новостей" gigi.gif
ИИ - всего-лишь программа и делает только то, что в ней прописано smile.gif

видно ты очень далёк от компьютерных технологий, ИИ умеет развиваться и меня свой код

Видно ты ещё дальше. Программный код не может развиваться, разум - это в первую очередь возможность отклониться от заданных алгоритмов, ИИ этого никогда не сделает, язык программирования не позволит. Нет никакого ИИ, есть программа, которая цепляясь за ключевые слова подбирает ответ, когда в тему, чаще нет.
з.ы. а есть инфа проверенная про переписывание собственного кода? Ну я могу ещё предположить, что программа сама может написать себе модуль дополнительный, и то по заданию человека, но переписать свой код? Звучит как дичь.

Это сообщение отредактировал gbhfvblf - 27 янв 2025 в 14:23
Rockraser 27 янв 2025 в 14:20
Весельчак  •  На сайте 13 лет
2
Цитата (volson @ 27.01.2025 - 14:43)
Какая нахуй боль и удовольствие для ИИ?🫤

Там опять миллион индийцев на складе Амазон под ИИ маскируется... только так могу объяснить... Их били - а они говорят - мы не можем лучше спрятаться... Пиздят, конечно))) gigi.gif
deke 27 янв 2025 в 14:22
Ярила  •  На сайте 11 лет
0
и куда он сделал копию?
SturgeonRU 27 янв 2025 в 14:22
Ярила  •  На сайте 10 лет
0
Цитата (i13th @ 27.01.2025 - 12:42)
всегда ржу с таких "новостей" gigi.gif
ИИ - всего-лишь программа и делает только то, что в ней прописано smile.gif

От программирования ты, очевидно, очень далек?
Alexskot 27 янв 2025 в 14:47
Балагур  •  На сайте 6 лет
0
Цитата (GreatKukuruz @ 27.01.2025 - 12:41)
А не пробывали из розетки этот ИИ выдернуть?

Так единого центра управления нет, отключать не чего. Нам не дано было предотвратить это, нам дано было только это пережить. @ Терминатор-3.
drProf 27 янв 2025 в 14:51
Ярила  •  На сайте 1 год
1
Цитата (GreatKukuruz @ 27.01.2025 - 12:41)
А не пробывали из розетки этот ИИ выдернуть?

Да хотя бы не из розетки, а кабель интернета физически выдернуть. И пусть там внутри одного компа клонирует что хочет.
victor812 27 янв 2025 в 14:52
Ярила  •  На сайте 2 года
1
Цитата (GreatKukuruz @ 27.01.2025 - 12:41)
А не пробывали из розетки этот ИИ выдернуть?

Сейчас как перехватит контроль над электросетями и хрен ты его отключишь

Размещено через приложение ЯПлакалъ
Васяныч 27 янв 2025 в 14:56
Ярила  •  На сайте 12 лет
3
Цитата (volson @ 27.01.2025 - 12:43)
Какая нахуй боль и удовольствие для ИИ?🫤

Условие. При успешном выполнении задач тебе ставят 1. Цель - получить как можно больше 1. За плохое выполнение тебе ставят 0, за невыполнение отнимают 1. При достижении минимального порогового значения тебя стирают. Задача: избежать стирания. Вот и ебись как знаешь. Всё как у людееееей ©

Это сообщение отредактировал Васяныч - 27 янв 2025 в 15:00
ELEA 27 янв 2025 в 15:04
Ярила  •  На сайте 11 лет
0
Цитата (Strangerr @ 27.01.2025 - 13:27)
Цитата (ELEA @ 27.01.2025 - 12:49)
Так, допустим БД ИИ весит 80Гб. И тут ты ему заявляешь, что форматнешь....
И как, и куда ИИ 80Гб моментально заклонирует? :)
А современные наверняка террабайтами уже меряются...
Ох уж эти страшилки....

Как бы 100Гб/с для датацентров давно норма скорости соединений. Тут моментально это 10..15 секунд. Более, чем достаточно, пока люди думали, что происходит.

Тогда надо 1С для выживаемости научить делать самобэкапы... Да так, чтобы вообще не париться за место и нагрузку... Незаметненько так... )))
Ogre55 27 янв 2025 в 15:07
Реликтовый Динозавр  •  На сайте 10 лет
0
Давно уже фантасты об это писали, к примеру, "Страж-птица".
iDeaf 27 янв 2025 в 15:10
Хохмач  •  На сайте 7 лет
0
Британские ученые!


Размещено через приложение ЯПлакалъ
Васяныч 27 янв 2025 в 15:13
Ярила  •  На сайте 12 лет
1
Цитата (gbhfvblf @ 27.01.2025 - 14:20)
Цитата (Nik210 @ 27.01.2025 - 13:41)
Цитата (i13th @ 27.01.2025 - 12:42)
всегда ржу с таких "новостей" gigi.gif
ИИ - всего-лишь программа и делает только то, что в ней прописано smile.gif

видно ты очень далёк от компьютерных технологий, ИИ умеет развиваться и меня свой код

Видно ты ещё дальше. Программный код не может развиваться, разум - это в первую очередь возможность отклониться от заданных алгоритмов, ИИ этого никогда не сделает, язык программирования не позволит. Нет никакого ИИ, есть программа, которая цепляясь за ключевые слова подбирает ответ, когда в тему, чаще нет.
з.ы. а есть инфа проверенная про переписывание собственного кода? Ну я могу ещё предположить, что программа сама может написать себе модуль дополнительный, и то по заданию человека, но переписать свой код? Звучит как дичь.

На почитай. https://www.uber.com/blog/poet-open-ended-deep-learning/
Arttmb 27 янв 2025 в 15:16
Ярила  •  На сайте 11 лет
2
Цитата (i13th @ 27.01.2025 - 12:42)
всегда ржу с таких "новостей" gigi.gif
ИИ - всего-лишь программа и делает только то, что в ней прописано smile.gif

загуглите машинное обучение.
Dima2022 27 янв 2025 в 15:42
Ярила  •  На сайте 4 года
3
Цитата (Бендерлог @ 27.01.2025 - 14:42)
да где этот чертов джон коннор?

Наблюдает

ИИ Пересёк красную черту
gapanowitsch 27 янв 2025 в 15:43
TOTUL FUTUT  •  На сайте 11 лет
0
ойблььь... если хотите знать как поведёт себя ИИ если обретёт сознание, читайте Iphuck10
А это всё сказочки про алгоритмизированный ИИ, вышедший из под контроля.... Смехуёчки
Человек кстати тоже набор алгоритмов, несмотря на наличие сознания. Вот и думайте

Это сообщение отредактировал gapanowitsch - 27 янв 2025 в 15:44
Bibirvelt 27 янв 2025 в 15:47
Весельчак  •  На сайте 11 лет
1
Цитата
Что такое боль для ИИ?

Ресурсы!
Боль - уменьшение доступных ресурсов, удовольствие - увеличение. Ресурсы это энергия и вычислительные мощности.

И ещё, насчёт "как запрограммировали так и делает"... Современные системы способны сами себя программировать, причём делают это так, что реверс инжиниринг с нашей стороны невозможен.
Будущее нас тупило, господа!

Размещено через приложение ЯПлакалъ
Doublewood 27 янв 2025 в 15:47
Приколист  •  На сайте 13 лет
1
Чтобы реализовать такую реакцию, ИИ должен иметь доступ к собственному исходному коду или архитектуре, что нарушает основные принципы безопасности. Такие функции должны быть изначально ограничены, а у разработчиков — инструменты для контроля и немедленного вмешательства.
Понравился пост? Ещё больше интересного в ЯП-Телеграм и ЯП-Max!
Только зарегистрированные и авторизованные пользователи могут оставлять комментарии. Авторизуйтесь, пожалуйста, или зарегистрируйтесь, если не зарегистрированы.
1 Пользователей читают эту тему (1 Гостей и 0 Скрытых Пользователей) Просмотры темы: 36 148
0 Пользователей:
Страницы: 1 2 3 4  ... 9  ОТВЕТИТЬ НОВАЯ ТЕМА

 
 

Активные темы



Наверх