ИИ - реально ли это, или заблуждения дилетанта

[ Версия для печати ]
Добавить в Telegram Добавить в Twitter Добавить в Вконтакте Добавить в Одноклассники
Страницы: (12) « Первая ... 6 7 [8] 9 10 ... Последняя »  К последнему непрочитанному [ ОТВЕТИТЬ ] [ НОВАЯ ТЕМА ]
testuser7 13 июн. 2018 г. в 16:52
Ярила  •  На сайте 10 лет
2
Когда то люди были совершенно уверены, что Земля плоская и заявляли об этом так же авторитетно как сейчас ТС про ИИ.
нордя 13 июн. 2018 г. в 16:52
прогибатор дивана  •  На сайте 8 лет
0
ну хорошо, пусть повторить хому сапиенса стопроцентно невозможно в ближайшие... кхм... 50 лет, видимо, как-то так.
а нужна ли эта стопроцентность? сейчас, в ближайшие 10-15? вряд ли.
пройти Тьюринга? не думаю, что это будет большой проблемой.
и вообще, если обычный человек в нескольких беседах с сеткой не распознает подвоха, то основание для повсеместного внедрения во все сферы бизнеса, где необходимо какое-то общение с клиентом, станет совершенно очевидным.
соответственно, рынок труда товой... посыпется.
Krabox 13 июн. 2018 г. в 16:53
Ярила  •  На сайте 14 лет
3
Вот тебе полный ответ
nafan4ik 13 июн. 2018 г. в 16:53
Ярила  •  На сайте 15 лет
0
Цитата (testuser7 @ 13.06.2018 - 16:52)
Когда то люди были совершенно уверены, что Земля плоская и заявляли об этом так же авторитетно как сейчас ТС про ИИ.

может про тему веры в богов затронем?
Amok555 13 июн. 2018 г. в 16:53
Ярила  •  На сайте 17 лет
0
Нет проблем. Не обязательно создавать ИИ, который будет сразу рубить бабку. Для таких случаев создаются правила и ограничения. Собственно задача ИИ - возможность систематизации и выделения чего-либо нового в новый объект. Притяие решений о действиях с этим объектом на основании похожих объектов.

Собственно все эти шири, хуири, алисы - это публичная попытка все это сделать.

Это сообщение отредактировал Amok555 - 13 июн. 2018 г. в 16:54
Narkozzz 13 июн. 2018 г. в 16:56
Гойдофоб  •  На сайте 15 лет
0
ИИ должен руководствоваться принципом минимальной достаточности, выбирая такую реакцию, которая была бы адекватна уровню угрозы с учетом приоритета прав человека перед сохранностью машины. Риск для машины от бабки минимальный, решение - уйти от контакта с бабкой или блокировать её без применения силы до приезда наряда.
GadPolzuchij 13 июн. 2018 г. в 16:56
Ярила  •  На сайте 8 лет
0
Цитата (Рэkтилоид @ 12.06.2018 - 19:51)
Как потомственный рептилоид в пятом поколении ....

Эээээ... я дико извиняюсь, Вы крокодил что ли?
СвежийВетер 13 июн. 2018 г. в 16:59
Глаза боятся, а руки - крюки  •  На сайте 15 лет
0
Надо у Алисы спросить.
PianoSmok 13 июн. 2018 г. в 17:01
Ярила  •  На сайте 10 лет
0
Цитата (Narkozzz @ 14.06.2018 - 00:56)
ИИ должен руководствоваться принципом минимальной достаточности, выбирая такую реакцию, которая была бы адекватна уровню угрозы с учетом приоритета прав человека перед сохранностью машины. Риск для машины от бабки минимальный, решение - уйти от контакта с бабкой или блокировать её без применения силы до приезда наряда.

Это ты три закона.
googloompy 13 июн. 2018 г. в 17:02
Весельчак  •  На сайте 8 лет
2
Интеллект не подразумевает наличие чувств. Он и без них будет прекрасно функционировать.

Это сообщение отредактировал googloompy - 13 июн. 2018 г. в 17:03
sngsmirnoff 13 июн. 2018 г. в 17:03
Хохмач  •  На сайте 8 лет
0
так может и у бабок появится чуство самосохранения и дисциплина минимальная)
nafan4ik 13 июн. 2018 г. в 17:05
Ярила  •  На сайте 15 лет
0
Цитата (googloompy @ 13.06.2018 - 17:02)
Интеллект не подразумевает наличие чувств. Он и без них будет прекрасно функционировать.

И чем по вашему должен он руководствоваться при выборе решений? Прописанными заранее алгоритмами? Или пропишем ему конечную цель, к примеру сделать мир во всем мире, что мы тогда получим. Всех в лагеря на работу, не согласных - убить? Можно сразу всех убить, результат то будет лучше.
PianoSmok 13 июн. 2018 г. в 17:05
Ярила  •  На сайте 10 лет
0
не-не-не.

Ребят, ИИ для чего - ? Для вождения воздушных такси - математика

душа? хм...
nafan4ik 13 июн. 2018 г. в 17:06
Ярила  •  На сайте 15 лет
0
Цитата (sngsmirnoff @ 13.06.2018 - 17:03)
так может и у бабок появится чуство самосохранения и дисциплина минимальная)

тока через 2-3 поколения, первых бабок выкосят под 0
нордя 13 июн. 2018 г. в 17:06
прогибатор дивана  •  На сайте 8 лет
0
Цитата (Krabox @ 13.06.2018 - 16:53)
Вот тебе полный ответ.

Савельев считает, что в дальнейшем человек будет развиваться по пути примитивизации (уменьшения уровня интеллекта, улучшения физических характеристик). ©
ну, с меня слизал прям.
короче, это лишь одно из мнений.
не уверен, что г-н Савельев глубоко разбирается в кухне инс и ии.
скорее всего, он сильно недооценивает то, что сейчас происходит в этой области, рассуждая лишь о наборе штампов.
впрочем, в какой-то степени и наше, человеческое поведение, лишь набор штампов.
nafan4ik 13 июн. 2018 г. в 17:07
Ярила  •  На сайте 15 лет
1
Цитата (PianoSmok @ 13.06.2018 - 17:05)
не-не-не.

Ребят, ИИ для чего - ? Для вождения воздушных такси - математика

душа? хм...

Автоматизация. И, к примеру, пишет человек десятилетиями алгоритмы. Он - профи. Но он не сможет написать алгоритм по созданию нового музыкального шедевра, поскольку там он - 0.
PianoSmok 13 июн. 2018 г. в 17:09
Ярила  •  На сайте 10 лет
0
Цитата (nafan4ik @ 14.06.2018 - 01:05)
Цитата (googloompy @ 13.06.2018 - 17:02)
Интеллект не подразумевает наличие чувств. Он и без них будет прекрасно функционировать.

И чем по вашему должен он руководствоваться при выборе решений? Прописанными заранее алгоритмами? Или пропишем ему конечную цель, к примеру сделать мир во всем мире, что мы тогда получим. Всех в лагеря на работу, не согласных - убить? Можно сразу всех убить, результат то будет лучше.

Странный у вас алгоритм. Тема не про это.
нордя 13 июн. 2018 г. в 17:10
прогибатор дивана  •  На сайте 8 лет
0
Цитата (PianoSmok @ 13.06.2018 - 17:05)
не-не-не.

Ребят, ИИ для чего - ? Для вождения воздушных такси - математика

душа? хм...

такси водят нейронные сети, узкая спецуха.
ии - совокупность таких сетей, которая полностью, до мелочей продублирует и вынесет моск сапиенса (не в смысле клеток), который хомо.

Это сообщение отредактировал нордя - 13 июн. 2018 г. в 17:13
XuIIIHuK 13 июн. 2018 г. в 17:12
Ярила  •  На сайте 10 лет
1
На текущей базе создать ИИ нельзя, для самостоятельного анализа ситуации и принятия решения. Потому что языки программирования - это чёткие правила поведения, при той или иной ситуации.
Можно попытаться собрать ИИ по принципу постоянного обучения, а изначальное принятие решений на основании - Random и отталкиваться от полученного результата, но нужно тогда понять, что будет являться положительным результатом, а что отрицательным, а не во всех задачах это возможно. И по сути такая программа должна постоянно делать backup перед каждым маломальским принятием решения, и менять оболочки. Потому, что в следствие неправильного решения могут привести к потере тела ИИ, а чтобы программа постоянно развивалась нужно много тел и постоянная загрузка обновлённой программы в них.

Как то так, фактически описал теорию эволюции и обучение нового организма :)

Это сообщение отредактировал XuIIIHuK - 13 июн. 2018 г. в 17:14
PianoSmok 13 июн. 2018 г. в 17:13
Ярила  •  На сайте 10 лет
0
Ваще Ефремов уже давно написал
Vivivdarium 13 июн. 2018 г. в 17:13
Ярила  •  На сайте 9 лет
0
Ну а хули. Добавляем робокопу пару программ эвристического анализа ебальника бабки и базу лиц для сравнения. Так же некий математический алгоритм для упрощения вычисления. Например коэффициент отвратительности ебала бабки по базе делится на толщину бабки а так же словам типа "хуесос железный" и прочим присваивается рейтинг борзости по базе зоновских понятий. Далее все эти производные умножаются на текущий рейтинг Путина и затем делятся на демографическую ситуацию в стране. В итоге если общий анализ выдаёт более
8.7 баллов - бабка сама себе вставила клюшку в жопу и заебла себя ей до смерти.
Менее 7 балов - сломать руки нахуй и сказать так и было.
5 и менее баллов - вынести бабке устное предупреждение и отобрать клюшку.
Менее 4 баллов - отвести бабку до подъезда и сдать родственникам.
nafan4ik 13 июн. 2018 г. в 17:14
Ярила  •  На сайте 15 лет
0
Цитата (XuIIIHuK @ 13.06.2018 - 17:12)

Можно попытаться собрать ИИ по принципу постоянного обучения, а изначальное принятие решений на основании - Random и отталкиваться от полученного результата, но нужно тогда понять, что будет являться положительным результатом, а что отрицательным, а не во всех задачах это возможно.

А как мы будем знать что такое положительный или отрицательный результат?
Сажень 13 июн. 2018 г. в 17:14
Шутник  •  На сайте 8 лет
0
Попробую кратко предложить, как можно создать конкретный алгоритм. ИИ надо поделить все объекты на, например, три группы - друг, враг и, условно "бабка" по каким-то признакам. С другом и врагом все понятно, - врага уничтожаем как только появляется в поле зрения и в зоне досягаемости; с другом не делаем ничего никогда. "Бабка" - объект непредсказуемый, если реальной угрозы не представляет, то не атакуем. Что есть реальная угроза? Это также определяется набором признаков - движение в сторону ИИ, обнажение объекта, похожего на оружие и т.п. Когда надо реагировать? Ведь, если "бабка" поведет медленно клюкой в сторону камеры, можно же просто шагнуть в сторону, плавно так. Если начнет доставать оружие (булыжник, пистолет, спички и т.п.), можно механическим голосом начать ее отговаривать (понятно, что это и есть проявление пресловутого уважения?). А вот момент реакции (или реакций)на устранение угрозы (выбить палку, сломать руки и т.п.) настраивается по порогу (или порогам) - например, величине ускорения при движении конечностей ИИ. Пороги эти устанавливает человек для ИИ, т.е. он передает ему свое отношение к риску и закладывает этот индивидуальный уровень риска в ИИ. Как-то так...
XuIIIHuK 13 июн. 2018 г. в 17:17
Ярила  •  На сайте 10 лет
0
Цитата (nafan4ik @ 13.06.2018 - 17:14)
Цитата (XuIIIHuK @ 13.06.2018 - 17:12)

Можно попытаться собрать ИИ по принципу постоянного обучения, а изначальное принятие решений на основании - Random и отталкиваться от полученного результата, но нужно тогда понять, что будет являться положительным результатом, а что отрицательным, а не во всех задачах это возможно.

А как мы будем знать что такое положительный или отрицательный результат?

Да тут понимаешь, изначально при создании ИИ, ему закладывается какая-то цель. А иначе ИИ вообще не будет ничего делать.
Цель должна быть составная(из под целей) и желательно не иметь конца, чтобы ИИ постоянно развивался.
И тут как раз кроется ответ под положительным и отрицательным результатом. Если ИИ проводя анализ и понимает, что выполнил маленькую подцель - тогда результат положительный, если нет - отрицательный.

Это сообщение отредактировал XuIIIHuK - 13 июн. 2018 г. в 17:19
PianoSmok 13 июн. 2018 г. в 17:17
Ярила  •  На сайте 10 лет
0
Я ещё раз хочу узнать. ИИ - для чего?
Понравился пост? Еще больше интересного в Телеграм-канале ЯПлакалъ!
Только зарегистрированные и авторизованные пользователи могут оставлять комментарии. Авторизуйтесь, пожалуйста, или зарегистрируйтесь, если не зарегистрированы.
1 Пользователей читают эту тему (1 Гостей и 0 Скрытых Пользователей) Просмотры темы: 25473
0 Пользователей:
Страницы: (12) « Первая ... 6 7 [8] 9 10 ... Последняя » [ ОТВЕТИТЬ ] [ НОВАЯ ТЕМА ]


 
 



Активные темы






Наверх