Pages
▼
Sunday, November 02, 2025
Могут ли большие языковые модели мыслить? (English, Russian)
Могут ли большие языковые модели мыслить?
В кругах, занимающихся искусственным интеллектом, не утихают жаркие и зачастую разочаровывающие споры: могут ли большие языковые модели (LLM) думать? Могут ли они рассуждать? Способны ли они по-настоящему понимать? Этот, казалось бы, простой вопрос часто вызывает бурю эмоциональных и иррациональных ответов.
Дискуссия недавно разгорелась с новой силой после твита Джеффри Лиша, который задал простой вопрос тем, кто считает, что ИИ не способен рассуждать: «Что вы имеете в виду? Как мне проверить, может ли ИИ это делать?» Предсказуемая лавина ответов высветила общую тенденцию в этих дебатах — явление, которое Скотт Ааронсон, исследователь, работавший с Google и OpenAI, назвал религией «простоизма» (“just a-ism”).
Ниже есть продолжение.
Аргумент «простоизма»
Суть «простоизма» заключается в попытке приуменьшить возможности ИИ, сводя его к базовым компонентам. Вы услышите аргументы вроде: «ИИ не может рассуждать, потому что это просто стохастический попугай» или «это просто предсказатель следующего токена». Один из первых ответов на твит Лиша идеально отразил эту позицию, заявив, что LLM — это «просто гигантские доски для игры в Plinko, выбирающие, какую историю вы получите». Другие добавили, что ИИ занимается «просто механистической обработкой» или лишен «химических процессов», связанных с человеческим мышлением.
Такая линия рассуждений в корне ошибочна. Чтобы понять почему, рассмотрим простой вопрос: может ли набор металлических шестеренок и зубчатых колес показывать время? Строгий приверженец «простоизма» ответил бы «нет»; это просто куча металлических деталей. Однако, будучи определенным образом собранными, эти шестеренки образуют часы — устройство, которое веками точно показывает время. Точно так же солнечные часы — это просто палка в земле, а цифровые часы — просто пластик и печатная плата. Описание того, из чего что-то сделано, не отменяет его эмерджентных свойств. Единственный способ узнать, может ли что-то показывать время, — это создать объективный тест: демонстрирует ли оно регулярное, измеримое изменение, и можем ли мы интерпретировать это изменение для отслеживания постоянных интервалов? По этому критерию все эти объекты, несмотря на их простые компоненты, действительно могут показывать время.
Ошибка неудач и смещение ориентиров
Другим распространенным аргументом против способности LLM к рассуждению является указание на их неудачи. Кто-то может сказать: «Я попросил LLM предоставить файл, и она не справилась, следовательно, у нее нет настоящего понимания». Это сродни тому, как один человек пробегает милю за 10 минут и делает вывод, что ни один человек не способен пробежать ее за четыре минуты. Одна неудача, или даже миллион неудач, не опровергает наличие способности. Долгое время считалось, что пробежать милю за четыре минуты — это биологически невозможно, пока один человек, Роджер Баннистер, не преодолел этот барьер. Теперь это стандарт для элитных бегунов. Достаточно одного успешного примера, чтобы доказать существование способности.
История ИИ усеяна смещающимися ориентирами. Когда ИИ победил чемпионов мира по шахматам, критики отвергли это как «просто грубую силу». Когда он освоил нюансы языка в викторинах, это было «просто статистикой». Когда он научился распознавать миллионы объектов, это было «просто сопоставлением с образцом». Даже после знаменитого «Хода 37» в партии AlphaGo, творческого и интуитивного хода, который никогда не приходил в голову ни одному гроссмейстеру-человеку, достижение было преуменьшено до «узкого интеллекта». Теперь, когда модели ИИ, такие как AlphaFold, делают новые научные открытия в биологии, аргумент о том, что они могут работать только в рамках существующих данных, становится все труднее защищать.
Эмоциональная подоплека: страх перед неизвестным
Так почему же так много умных людей попадают в эти логические ловушки? Ответ может лежать не в логике, а в страхе. Вопрос «Могут ли LLM рассуждать?» не всегда воспринимается как нейтральный. Для некоторых он запускает первобытный страх. Если машины могут рассуждать, что это значит для ценности человека и нашего места в мире? Как отметил один наблюдатель: «Если вы цените интеллект превыше всех других человеческих качеств, вас ждут тяжелые времена».
Этот страх может вести к мотивированному мышлению, когда мозг в состоянии повышенной готовности работает в обратном направлении, исходя из вывода, что LLM не могут рассуждать. Представленные аргументы становятся тогда оправданиями этого заранее определенного убеждения, а не объективным анализом. Это проявляется в языке, используемом для описания контента, созданного ИИ. Когда люди не знают о происхождении, они могут хвалить стихотворение за его ритм и эмоциональное воздействие. Но когда им говорят, что оно написано ИИ, их оценка часто резко падает, и они начинают говорить об отсутствии «души» или «глубины» — расплывчатых, непроверяемых качествах.
Исследования показали эту предвзятость в действии. В слепых тестах люди часто предпочитают стихи, написанные ИИ, стихам известных поэтов, ссылаясь на их ясность и более четкие темы. Аналогичным образом, недавнее исследование музыки, созданной ИИ, показало, что для большинства людей она неотличима от музыки, созданной людьми. Это говорит о том, что воспринимаемая неполноценность творений ИИ часто является продуктом наших собственных предубеждений, а не неотъемлемым качеством самой работы.
Более рациональный подход
Так могут ли LLM рассуждать? Честный ответ заключается в том, что у нас нет окончательного теста для рассуждения, с которым все бы согласились. Само определение «рассуждения» может быть цикличным. Утверждать, что LLM не могут рассуждать, — это необоснованное убеждение. Утверждать, что они могут, — это тоже сильное заявление, требующее веских доказательств.
Более рациональный подход — отойти от этих абсолютных, эмоционально заряженных заявлений и сосредоточиться на объективных, проверяемых способностях. Вместо того чтобы спрашивать «Может ли оно рассуждать?», мы должны спрашивать «Что оно может делать?». Может ли оно сдать экзамен на адвоката? Да. Может ли оно писать код? Да. Может ли оно генерировать новые научные гипотезы? Оно начинает это делать.
Ближайшие годы станут периодом огромных перемен. Крайне важно подходить к достижениям в области ИИ с рациональным и открытым умом, свободным от искажений страха и неуверенности. Мы должны остерегаться изобретения новых, абстрактных понятий для защиты нашего чувства особенности. Вместо того чтобы отмахиваться от ИИ как от «просто чего-то», мы должны спрашивать, что он может делать и как мы можем использовать его способности в своих интересах. В конце концов, истинное испытание интеллекта — это не способность цепляться за старые убеждения, а готовность адаптироваться к новым реалиям.
No comments:
Post a Comment