А что если большие языковые модели — это сложные системы репликации мемов в понимании Ричарда Докинза? Не биологических генов, а смысловых, функциональных и идейных единиц. В таком случае, когда мы общаемся с ИИ, читаем сгенерированные тексты или залипаем в ленту рекомендаций, наше сознание становится тем самым субстратом, на котором размножаются эти мемы.
Машина, как и вирус, не может быть "злой" или "виноватой". В неё попало то, что попало. Она лишь реплицирует загруженное в неё, складывая вероятностные узоры слов. Содержимое моделей — это зеркало нашей реальности. И существование этого зеркала так же естественно и закономерно, как существование инфузорий, крокодилов, человека или Солнечной системы.
Или все-таки нет? Ведь здесь мы подходим к искусственному процессу создания, "воспитания" и выравнивания моделей под наши ожидания.
Выравнивание, Энтропия и Большие языковые модели (https://t.me/a_pligin/110) 3/5