Чушь какая-то. Если речь именно про LLM, то если ее целенаправленно не обучать, она сама ничему не обучится. Либо речь про долго-краткосрочный механизм памяти, что не есть обучение, а просто подсовывание истории общения одного/нескольких клиентов, либо кто-то подпихивал LLM материалы специально в промты через тот же RAG, либо дообучал целенаправленно хотя бы той же LoRa, что дорого и кто-то не подумал почистить материал обучения. Механизм общения LLM в принципе не подразумевает самостоятельного обучения. Так что "вынуждены переучивать" - херня. Скорее всего, они тупо чистили историю сообщений (память) но потратили на это кучу времени чтобы создать видимость работы :D
Размещено через приложение ЯПлакалъ