Поясню.
Можно создать нейросеть с заданными ограничениями, но которая также сможет создать самообучающийся ИИ тоже с необходимыми ограничениями. И которая также сможет создать ИИ. На каком-то цикле эти ограничения могут слететь из-за чьего-то проеба, бага или неправильно прописанного алгоритма ограничений и пиздец. Тем более многие из вас сталкивались с багами ограничения циклов, дат и т.д., которые невозможно отследить на стадии запуска, но которые заложены заранее и несут отложенный эффект.
Такие нейросети, которые пишут код и заменяют собой айтишников, уже есть. Просто пока это дорого и не особо распространено, но это реальность. То же "лукоморье" от ростелекома. А работы в этом направлении ведут несколько десятков компаний. Сети, которые будут писать свои усовершенствованные самообучающиеся аналоги - только вопрос времени. Это главный риск развития ИИ, о котором пару лет назад говорил Маск на одной из конференций.
Именно поэтому ИИ нужно вводить ограниченно, с рекомендательными функциями и без возможности принятия решений. Нейросети должны быть только помощниками, ускоряющими делопроизводство, аналитику, оценку состояния здоровья человека и т.д. и т.п. Но все решения должен принимать человек.
Это сообщение отредактировал AnrgyHornet - 24.11.2023 - 13:54