
ChatGPT «знает» что-нибудь? Нет, это не так.
Понимание того, как это работает, важно по мере того, как вы эволюционируете от человека к кентавру (человек + ИИ). Вам не обязательно знать, как устроен автомобиль, чтобы управлять им, но если вы это сделаете, вы лучше поймете его пределы и возможности. ChatGPT станет все более важной частью нашей профессиональной и творческой жизни, поэтому давайте разберемся в этом лучше.
Технология и философия теперь пересекаются. В центре этого находятся большие языковые модели (LLM). По мере того, как LLM становятся более искусными в подражании людям, мы становимся уязвимыми для антропоморфизма – рассматривая эти системы как человеческие – хотя они не являются ничем подобным. Это усиливается использованием таких терминов, как «знает», «верит», «думает» и т. д.
LLM так не работают. У них нет ни одной из этих способностей, все, что они знают, это статистическая вероятность.
Когда мы создаем инструменты, воссоздающие человеческий вывод, помните, что они не думают так, как мы. Наши человеческие интуиции не применимы. LLM показывают, что почти все, что мы говорим, можно свести к прогнозированию, а не к пониманию.
Чем на самом деле занимаются LLM? LLM — это математические модели, которые предсказывают следующую последовательность слов на основе статистического распределения слов в корпусе текстов, созданных человеком.
Когда мы задаем вопросы LLM, мы не спрашиваем то, что, как мы думаем, мы спрашиваем. Если мы спрашиваем «Кто изобрел биткойн?», мы на самом деле спрашиваем:
«Учитывая статистическое распределение слов в ваших обучающих данных, какие слова с наибольшей вероятностью будут следовать последовательности «кто изобрел биткойн?»».
Если мы скажем LLM "тук-тук", мы попросим его предсказать наиболее статистически вероятную последовательность слов, которая обычно следует за этой фразой. LLM, вероятно, ответит "кто там?", но он понятия не имеет, что происходит шутка, или что это вообще такое.
Для нас язык — это своего рода отношение к истине. Но для ChatGPT нет различий между истиной в реальном мире и вымышленном мире. Нет правильного и неправильного. Есть только статистическая вероятность.
Никакой философской или эпистемической "веры", "знания", "понимания" и т. д. здесь не происходит. Все, что LLM "знает", это то, какие слова обычно следуют за другими словами. Учитывая, насколько это хорошо, возможно, мы неправильно понимаем, что на самом деле означает знание чего-либо.
Возможно, здесь есть что-то эмерджентное. Если мы «знаем» вещи и эти знания встроены в наш язык, и ChatGPT обучен на нашем языке... может быть, справедливо будет сказать, что он знает вещи, с которыми он сталкивался, потому что он может генерировать правильные ответы на основе этой информации.
Люди подвергаются воздействию информации для получения знаний, которые мы затем используем для создания ответов. Как для человека, так и для LLM процесс выглядит следующим образом: воздействие информации -> многократное обучение на этой информации -> генерация выходных данных.
Есть ли разница между знанием и статистическим прогнозированием, если оба дают правильные ответы? Как еще измеряется знание, если не правильным выводом?
Если правильный ответ является целью познания, то, возможно, предсказание последовательности и знание чего-либо являются различием, не имеющим значения, если оба они приводят к правильным ответам.
Как бы вы ни хотели концептуализировать «знание», просто знайте, что LLM приходят к похожим ответам совершенно иными способами, чем вы. Взаимодействуйте соответственно!