Важно

  •  

Thursday, April 24, 2025

פייגלין: מה הקשר בין זיכרון השואה ליכולת שלנו למנוע את השואה הבאה? (Hebrew, Russian)

Стенограмма на русском и иврите.



Интервьюер: День памяти Катастрофы и героизма, завет "Никогда больше", который мы взяли на себя. Мы... потерпели неудачу в... этом обещании за последние год-два?

Моше Фейглин: Конечно, мы потерпели неудачу. То, что мы получили седьмого октября, было днем Катастрофы со всеми ее характеристиками, и даже... сверх того, потому что тот день Катастрофы, или полтора дня Катастрофы, которые показал нам исламо-нацизм из Газы, дал нам вкусить, да, его вкус... Эти исламо-нацисты, в отличие от немецких нацистов, очень гордились этим и опубликовали свои... опубликовали свои деяния по всему миру. И ни одна центральная фигура в мусульманском мире не поспешила осудить эти вещи. То есть, в отличие от нацистов, да проклято будет их имя, жители Газы, да проклято будет их имя, очень гордятся своими действиями. Бегут рассказывать папе и маме, что они сделали. То, что они сделали, было в религиозном экстазе. Не пытаются скрыть, не пытаются взорвать в последний момент газовые камеры и скрыть свои деяния. Так что да, чудовище подняло голову самым отвратительным и ужасающим образом. И лозунг "Никогда больше" оказался пустым лозунгом, который на самом деле не выдерживает критики. И мы должны понять, почему.

Почему здесь, на земле Израиля и в государстве Израиль, которое мы создали, государстве с ЦАХАЛом, с ВВС и с текстильной фабрикой в Димоне, такие вещи могут происходить? И я хочу связать это обратно с памятью о Катастрофе.

Ниже есть продолжение.

Я думаю, что государство Израиль, через свои официальные институты, и в первую очередь Яд Вашем, внушило искаженную память о Катастрофе. Внушило и продолжает внушать искаженную память о Катастрофе.

Интервьюер: Что вы имеете в виду?

Моше Фейглин: Прежде всего, мы все должны спросить себя, почему глубокая связь между... тем, что называется палестинским движением, Хадж Амином аль-Хусейни, да, и Гитлером, в значительной степени скрыта в Яд Вашем. Если постараться найти, то найдешь. Но глубокая связь, глубокая историческая связь между ним, исламо-нацистским врагом, устроившим нам день Катастрофы седьмого октября, и нацизмом, и процессом уничтожения, скрыта израильской историографией уже много-много лет.

Но оставим это в стороне, это отдельный вопрос. Суть, которую я хочу сказать, заключается в том, что причина, ответ... Ведь Катастрофа ставит вопрос: Почему? Почему они сделали это с нами? Почему немцы, да проклято будет их имя, решили уничтожить народ Израиля до последнего еврейского младенца? Почему?

Очевидный урок Катастрофы, от которого невозможно уклониться, заключается в том, что если для нацистского чудовища, которое сегодня признано всем человечеством как абсолютное воплощение зла, когда-либо появлявшегося на земном шаре, если это чудовище видело в еврейском младенце своего главного врага, если немцы предпочитали отправлять поезда с евреями в Освенцим, а не с солдатами для защиты Берлина от наступающей Красной Армии, то есть предпочитали убивать... [Интервьюер: И их тоже, но прежде всего евреев] ...и погибнуть, лишь бы сначала убить их, они убьют и нас. Это означает, что... крайняя, самая черная, самая безумная точка на шкале зла видела врага в еврее. Так что же это говорит о нас, о евреях? О всех нас. Когда я говорю "всех нас", это все мы. Светские, религиозные, левые. Им было все равно, так же, как было все равно нацистам из Газы.

Это означает, что мы находимся на другом конце шкалы. В нас есть что-то очень, очень хорошее. Очень уникальное, что отличает нас от всех других народов. У нас есть некое послание, которого боятся. Что-то очень, очень уникальное и хорошее. И если это так, то у идеи "народа, как все народы", у которого нет ничего уникального и хорошего своего, у этой идеи нет основы. По сути, вывод из Катастрофы заключается в том, что сионистский проект нормальности находится в беде.

И поэтому официальные институты и официальная память народа Израиля были вынуждены прийти и сказать, что... смысл Катастрофы в том, что в каждом из нас скрыт маленький нацист. И эта идея, основанная на философии... [Интервьюер: Это не центральная идея сионизма, вы знаете, это высказывания крайних политиков в Израиле]

Это ведущий этос. Когда вы спрашиваете гида в Яд Вашем, в чем смысл? Какой вывод? Вывод в том, что и нам нельзя быть нацистами. [Интервьюер: Мы слышали, да] И это не что-то второстепенное. Начиная с... это знаменито в ее статье, в ее знаменитой книге Ханны Арендт, освещавшей суд над Эйхманом, о банальности злодеяния. [Интервьюер: Зла, да] Зла, простите. Нет разницы между нацистами и их жертвами. Когда-то они были нацистами, а мы жертвами, сегодня мы нацисты, а они жертвы. Отсюда короткий путь... С того момента, как Яд Вашем принял эту концепцию, а я снова говорю, только чтобы уклониться от еврейской уникальности.

В тот момент, когда официальное государство Израиль приняло этот подход, стал коротким путь к тому, чтобы во всем мире, в ведущих университетах мира, начали говорить, что мы теперь в роли нацистов, а арабы Газы, так называемые палестинцы, теперь играют роль евреев. Стал коротким путь к тому, чтобы заместитель начальника Генштаба пришел и сказал, что он видит [подобные] процессы в ЦАХАЛе. Стал коротким путь к тому, чтобы Главный военный прокурор поспешила опубликовать сфабрикованное видео, в котором она обвиняет отряд 100 в поведении, подобном [поведению] Нухбы, потому что все, в конце концов, одинаковы. И нацисты, и евреи, и солдаты ЦАХАЛа, и террористы Нухбы.

В тот момент, когда мы убежали от нашей уникальной идентичности и сформировали нашу национальную память как нечто усредненное, в чем нет еврейской уникальности, нет добра и зла, мы все можем быть сегодня жертвами, а завтра нацистами, мы потеряли нашу правоту и способность побеждать сегодня в наших войнах. Существует глубокая связь между тотальным искажением, которым мы собственными руками исказили память о Катастрофе, и новой Катастрофой, которую мы получили седьмого октября, и нашей неспособностью справиться с ней.

Интервьюер: Я слушаю вас, и мне кажется, что я слушаю лектора-хареди по памяти Катастрофы.

Моше Фейглин: Я не хареди. Я смотрю на реальность трезво. Я вижу в государстве Израиль начало нашего произрастающего избавления. Я читаю hалель в День Независимости. Но я осознаю всю проблематичность, которая действительно существует в изначальных идеях сионизма.

Интервьюер: Вы имеете в виду обвинения в адрес Израиля сейчас или самообвинение нас как жертв в прошлом? То есть, к войнам, которые мы ведем сегодня?

Моше Фейглин: Я говорю, что в конечном счете, тот способ, которым мы решили формировать память о Катастрофе, служит этосу "народа, как все народы", стирает нашу уникальную идентичность и, в конечном итоге, позволяет нашим врагам представлять нас, именно по этой причине, как новых нацистов. У нас нет права на эту землю, кроме права, права обетования Святого, благословен Он. У меня... у меня было много споров с самыми крайними течениями... [Интервьюер: Нет, я пытаюсь понять, говорите ли вы о принятии уникальной идентичности, понимании, что мы избранный народ, потому что вот, абсолютное зло нацелено только и именно на нас и готово пожертвовать собой, чтобы убить нас? Или же принять один из выводов, ведь у этого есть основание и в Торе: "И любите пришельца, ибо пришельцами были вы в земле Египетской". Является ли одним из выводов, которые мы извлекаем из Катастрофы, то, что нам нельзя быть этим абсолютным злом? В ваших глазах это плохо, это неправильно, это искажение?]

Ни одному человеку нельзя держаться за зло. Это очевидно. Но утверждать, что вывод из Катастрофы — это то, что нам нельзя быть нацистами, — это полнейшая идиотская чушь. Абсолютная идиотская чушь. Нет, в нас нет никакого нацизма. Мы как коллектив, как еврейский коллектив, верующие и неверующие, несем послание человечеству. Это причина, по которой мы получили Декларацию Бальфура. Народы мира поняли это после Первой мировой войны. От нас ожидают, что мы будем нести это послание.

Гитлер, да будет проклято его имя, который сказал, что он не способен жить в мире, где его главным врагом является еврейский народ. "Еврей и я не можем жить в одном мире". Так сказал немецкий уничтожитель. И он прав. Но мы должны спросить себя, почему? Почему он не может жить с нами?

Гитлер... Германия была страной, которая вела за собой Эпоху Просвещения. Эпоху, которая отделила Бога от геополитической реальности. Нацизм был очень "научным", так сказать. Если нет Бога, то нет и образа Божьего в человеке. И если можно улуч... и нет разницы между людьми и животными. Мы всего лишь животные с лучшей когнитивной функцией. И если можно улучшать породу лошадей и собак, то можно улучшать и человеческую расу, и истреблять низшие расы. Все было очень, очень "научно", очень "просвещенно", так сказать.

И народ, который самим своим вечным существованием свидетельствует о существовании Бога, и следовательно, о существовании морали, Десяти заповедей и "Не убий", стоит преградой на пути того, кто пытается быть таким "ученым" и улучшать мир на основе принципа "выживает сильнейший". Нацизм — это продолжение дарвинизма. От этого невозможно уклониться. Эти идеи об уничтожении рас... Газовые камеры не были изобретены во время [Второй] мировой войны. Газовые камеры были изобретены еще раньше, и в Германии, и в других странах, включая Соединенные Штаты, начали уничтожать сумасшедших, и даже людей, которые не могут себя прокормить, потому что нет смысла обществу их содержать. То есть, мысль о том, что мы живем в мире без Бога, и следовательно, без морали, — это мысль, которая в конечном итоге ведет к этим нацистским идеям. И народ, который самим своим вечным существованием свидетельствует о существовании Бога, — это тот, кто стоит преградой на пути их осуществления, и поэтому его нужно уничтожить. И даже если ты не веришь в Бога, и даже если у тебя нет, и даже если ты полный атеист, но ты все еще видишь себя частью еврейского народа и говоришь: "Я еврей", то на лбу у тебя написано: "Бог есть".

Интервьюер: Моше Фейглин, председатель партии "Зеут", большое спасибо, что поговорили с нами сегодня утром.

Моше Фейглин: Спасибо вам.

מראיין: יום הזיכרון לשואה ולגבורה, הציווי לעולם לא עוד, שאנחנו לקחנו על עצמנו. האם... כשלנו בה... בהבטחה הזאת בשנה-שנתיים האחרונות?

משה פייגלין: ברור שכשלנו. מה שקיבלנו בשביעי באוקטובר היה יום שואה על כל מאפייניו, ואפילו... מעבר לכך, משום שאת היום שואה, או היום וחצי שואה הזה שהאסלאמו-נאציזם העזתי הראה לנו, הטעים אותנו, כן, את טעמו. האסלאמו-נאצים הללו, בשונה מהנאצים הגרמנים, מאוד התגאו בכך ופרסמו את... פרסמו את מעשיהם בכל העולם. ואף לא דמות מרכזית אחת בעולם המוסלמי אצה לגנות את הדברים. כלומר, בשונה מהנאצים ימח שמם, העזתים ימח שמם, מאוד גאים במעשיהם. רצים לספר לאבא ולאמא מה הם עשו. את מה שהם עשו, זה היה באקסטזה דתית. לא מנסים להסתיר, לא מנסים לפוצץ ברגע האחרון את תאי הגזים ולהסתיר את מעשיהם. אז כן, המפלצת הרימה ראש בצורה המתועבת והמזעזעת ביותר. והסיסמה "לעולם לא עוד" התבררה כסיסמה חלולה, שלא באמת מחזיקה מים. ואנחנו צריכים להבין מדוע.

מדוע כאן, בארץ ישראל ובמדינת ישראל שהקמנו, המדינה עם צה"ל ועם חיל האוויר ועם מפעל הטקסטיל בדימונה, דברים כאלה יכולים להתרחש? ואני רוצה לקשור את זה בחזרה אל זיכרון השואה.

אני חושב שמדינת ישראל, דרך מוסדותיה הרשמיים, ובראש ובראשונה יד ושם, הנחילה, זיכרון מעוות של השואה. הנחילה וממשיכה להנחיל זיכרון מעוות של השואה.

מראיין: למה הכוונה?

משה פייגלין: קודם כל, כולנו צריכים לשאול את עצמנו, מדוע הקשר העמוק בין ה... מה שמכונה התנועה הפלסטינית, חאג' אמין אל-חוסייני, כן, והיטלר, מוּסתר למדי ביד ושם. אם תתאמץ למצוא אותו, תמצא. אבל הקשר העמוק, הקשר ההיסטורי העמוק בינו לבין האויב האסלאמו-נאצי שעשה לנו יום שואה בשביעי באוקטובר, לבין הנאציזם ותהליך ההשמדה, מוּסתר על ידי ההיסטוריוגרפיה הישראלית זה עידן ועידנים.

אבל נניח לזה בצד, זאת שאלה שעומדת בפני עצמה. הנקודה שאני, המהותית שאני רוצה לומר היא, שהסיבה, התשובה... הרי השואה יוצרת שאלה: למה? למה הם עשו לנו את זה? למה הגרמנים ימח שמם החליטו להשמיד את עם ישראל עד התינוק היהודי האחרון? למה?

הלקח המובהק הוא מהשואה, שאי אפשר לחמוק ממנו, הוא שאם לה, למפלצת הנאצית, שמקובלת בכל האנושות כיום, כזיקוק המוחלט של הרוע, שהופיע אי פעם על פני הגלובוס, אם המפלצת הזאת ראתה בתינוק היהודי את האויב האולטימטיבי, אם הגרמנים העדיפו לשלוח רכבות עם יהודים לאושוויץ ולא עם חיילים להגן על ברלין מפני הצבא האדום שמתקרב, כלומר העדיפו להרוג... [מראיין: גם אותם, אבל קודם כל את היהודים] ...ולאבד שקודם כל נהרוג אותם, הם יהרגו גם אותנו. זאת אומרת שה... הקצה השחור, המטורף ביותר של סקאלת הרוע, ראה ביהודי את האויב. אז מה זה אומר עלינו, על היהודים? כולנו. כשאני אומר כולנו, זה כולנו. חילונים, דתיים, שמאלנים. להם לא היה אכפת, כמו שלנאצים העזתים לא היה אכפת.

זה אומר שאנחנו נמצאים בקצה השני של הסקאלה. יש בנו משהו מאוד מאוד טוב. מאוד ייחודי, שמייחד אותנו מכל העמים האחרים. יש לנו איזושהי בשורה שמפחדים ממנה. משהו מאוד מאוד ייחודי וטוב. ואם זה הסיפור, לרעיון של "עם ככל העמים", שאין לו, אין לו משהו ייחודי וטוב משלו, לרעיון הזה אין בסיס. בעצם, המסקנה של השואה היא שפרויקט הנורמליות הציוני נמצא בבעיה.

ולכן נדחקו מוסדותיה הרשמיים והזיכרון הרשמי של עם ישראל לבוא ולומר ש... משמעות השואה היא שבכל אחד מאיתנו מסתתר נאצי קטן. והרעיון הזה, שמבוסס על הפילוסופיה... [מראיין: זה לא הרעיון המרכזי של הציונות, אתה יודע, אלו אמירות של אנשי קצה בפוליטיקה הישראלית]

זהו ה... האתוס המוביל. כשאתה שואל מדריך ביד ושם, מה, מה המשמעות? מה המסקנה? המסקנה היא שאסור גם לנו להיות נאצים. [מראיין: שמענו כן] וזה לא איזה שהוא משהו שולי. החל ב... זה מפורסם במאמרה, בספרה המפורסם של חנה ארנדט, שסיקרה את משפט אייכמן, על הבנאליות של הרשע. [מראיין: של הרוע, כן] של הרוע, סליחה. אין הבדל בין הנאצים וקורבנותיהם. פעם הם הנאצים ואנחנו הקורבנות, היום אנחנו הנאצים והם הקורבנות. מכאן קצרה הדרך... מרגע שיד ושם אימץ את התפיסה הזאת, ואני שוב אומר, רק כדי לחמוק מן הייחודיות היהודית.

ברגע שמדינת ישראל הרשמית אימצה את הגישה הזאת, קצרה הייתה הדרך לכך שבכל העולם, באוניברסיטאות המובילות בעולם, יתחילו לומר שאנחנו עכשיו בתפקיד הנאצים, והערביי עזה, הפלסטינים כביכול, הם משחקים עכשיו את תפקיד היהודים. קצרה הדרך שסגן רמטכ"ל יבוא ויאמר שהוא מזהה תהליכים בצה"ל. קצרה הדרך לכך שהפצ"רית ממהרת לפרסם סרטון מפוברק שבו היא מאשימה את כוח 100 בהתנהגות כמו הנוח'בות, כי כולם בסופו של דבר אותו דבר. גם הנאצים וגם היהודים, גם החיילי צה"ל וגם מחבלי הנוח'בה.

ברגע שאנחנו ברחנו מן הזהות המיוחדת שלנו, ועיצבנו את הזיכרון הלאומי שלנו כמין, כמשהו משטח שכזה, שבו אין ייחודיות יהודית, אין טוב ואין רע, כולנו יכולים להיות יום אחד הקורבנות ויום למחרת הנאצים, איבדנו את הצדק שלנו ואת היכולת לנצח היום את המלחמות שלנו. יש קשר עמוק בין העיוות הטוטאלי, שבמו ידינו עיוותנו את זיכרון השואה, לבין השואה החדשה שקיבלנו בשביעי באוקטובר וחוסר היכולת שלנו להתמודד איתה.

מראיין: אני מקשיב לך ואני מרגיש שאני מקשיב למרצה חרדי לזיכרון השואה.

משה פייגלין: אני לא חרדי. אני מביט במציאות נכוחה. אני רואה במדינת ישראל את ראשית צמיחת גאולתנו. אני אומר הלל ביום העצמאות. אבל אני ער לכל הפרובלמטיות שאכן קיימת ברעיונות המקוריים של הציונות.

מראיין: אתה מתייחס להאשמות של ישראל על עכשיו, או להאשמת קורבן על עצמנו בעבר? כלומר, למלחמות שאנחנו מנהלים היום?

משה פייגלין: אני אומר שבסופו של דבר, האופן שבו אנחנו החלטנו לעצב את זיכרון השואה, משרת אתוס של עם ככל העמים, מוחק את זהותנו הייחודית, ובסופו של דבר מאפשר לאויבינו להציג אותנו, מן הסיבה הזאת, כנאצים החדשים. אין לנו זכות על הארץ הזאת, מלבד הזכות, זכות ההבטחה של הקדוש ברוך הוא. אני, היו לי הרבה ויכוחים עם הזרמים הקיצוניים ביותר... [מראיין: לא, אני מנסה להבין האם אתה מדבר על אימוץ זהות ייחודית, להבין שאנחנו העם הנבחר, כי הנה, הרוע המוחלט הוא זה שמתרגט רק ודווקא אותנו ומוכן להקריב את עצמו בשביל להרוג אותנו. או האם לאמץ את אחת המסקנות, הרי יש לזה בסיס גם בתורה: "ואהבתם את הגר כי גרים הייתם בארץ מצרים". האם אחת המסקנות שאנחנו לוקחים מהשואה זה שאסור לנו להיות הרוע המוחלט הזה? היא רעה בעיניך, היא לא נכונה, היא עיוות.]

לשום אדם אסור לאחוז ברוע. זה ברור. אבל לטעון שהמסקנה מהשואה היא שאסור לנו להיות נאצים, זה קשקוש אווילי מוחלט. קשקוש אווילי מוחלט. אין, אין בתוכנו שום נאציזם. אנחנו כקולקטיב, כקולקטיב יהודי, מאמינים ושאינם מאמינים, נושאים בשורה לאנושות. זאת הסיבה שקיבלנו את הצהרת בלפור. אומות העולם הבינו את זה אחרי מלחמת העולם הראשונה. מצפים מאיתנו לבשר את הבשורה הזאת.

היטלר ימח שמו, שהוא אמר שהוא לא מסוגל לחיות בעולם שהאויב האולטימטיבי שלו זה העם היהודי. "היהודי ואני לא מסוגלים לחיות באותו עולם." כך אמר המשמיד הגרמני. והוא צודק. אבל אנחנו צריכים לשאול את עצמנו למה? למה הוא לא יכול לחיות איתנו?

היטלר... גרמניה הייתה המדינה שהובילה את עידן הנאורות. העידן שהפריד בין האל לבין המציאות הגיאו-פוליטית. הנאציזם היה מאוד מדעי כביכול. אם אין אלוהים, אז אין צלם אלוהים באדם. ואם אפשר להש... ואין הבדל בין בני אדם לבעלי החיים. אנחנו בסך הכל חיה עם קוגניציה טובה יותר. ואם מותר להשביח סוסים וכלבים, מותר גם להשביח את הגזע האנושי, ולהכרית גזעים נחותים יותר. הכל היה מאוד מאוד מדעי, מאוד מאוד נאור כביכול.

והעם שמעיד בעצם קיומו הנצחי על מציאות האל, ולכן על מציאות המוסר ועשרת הדיברות ו"לא תרצח", עומד חוצץ כנגד מי שמנסה להיות מן מדעי שכזה, ולהשביח את העולם על בסיס החזק ששורד. הנאציזם הוא המשך של הדרוויניזם. אי אפשר לחמוק מזה. הרעיונות הללו של השמדת גזעים... תאי הגזים לא הומצאו במלחמת העולם. תאי הגזים הומצאו עוד קודם לכן, ובגרמניה, וגם במדינות אחרות, כולל בארצות הברית, החלו להשמיד משוגעים, ואפילו אנשים שלא מסוגלים לפרנס את עצמם, כי זה לא עושה שכל שהחברה תחזיק אותם. כלומר, המחשבה שאנחנו חיים בעולם שאין בו אלוהים, ולכן אין בו מוסר, היא מחשבה שמובילה בסופו של דבר אל הרעיונות הנאציים הללו. והעם שבעצם קיומו הנצחי מעיד על קיום האל, הוא זה שעומד חוצץ כנגד הגשמתן, ולכן צריך להשמיד אותו. וגם אם אתה לא מאמין באלוהים, וגם אם אין לך, ואם גם אם אתה אתאיסט גמור, אבל אתה עדיין רואה את עצמך חלק מן העם היהודי ואתה אומר "אני יהודי", אז על המצח שלך כתוב: "יש אלוהים".

מראיין: משה פייגלין, יושב ראש מפלגת זהות, תודה רבה לך שדיברת איתנו הבוקר.

משה פייגלין: תודה לך.


פייגלין: האם ניתן להשוות בין צה"ל לצבא הנאצי? (Hebrew, Russian)

Стенограмма.



Алекс Цейтлин начинает с того, что хочет поговорить о Холокосте, но должен начать с события, которое потрясло его в тот день в WhatsApp-группе под названием «Агаси». Он описывает группу как не являющуюся официально репрезентативной, но включающую десятки видных деятелей, в основном из израильских левых кругов (возможно, крайне левых), и представляющую определенные настроения в протестных и левых кругах.

Цейтлину трудно описать инцидент, не прибегая к ненормативной лексике, но он отмечает, что это напоминает ему явления, которые он наблюдал в экстремистских религиозных группах (таких как Нетурей Карта), например, неуважение ко Дню памяти жертв Холокоста и отказ стоять во время сирены, с различными оправданиями. Он выражает потрясение тем, что это явление теперь существует и среди израильских левых, где люди пренебрежительно и даже с гордостью говорят о неуважении ко Дню памяти.

Ниже есть продолжение.

Далее он описывает еще более экстремальные высказывания, которые он прочитал в группе и которые глубоко потрясли его, особенно учитывая, что его семья погибла во время Холокоста. Он приводит примеры:

* Сравнение солдат ЦАХАЛа с нацистами, совершающими Холокост.

* Публикация фотографии очень худой палестинской девочки (позже выяснилось, что это, вероятно, фейковое фото больной девочки, но само ее использование, по его мнению, проблематично).

* Цитирование женщины, которая написала, что уже 10 лет не стоит во время сирены и более 20 лет отказывается принимать участие в Дне памяти, мотивируя это ущербом, нанесенным Израилем палестинцам.

* Еще одна цитата, особенно шокирующая, по его словам:

«Наши дети превратились в карателей, и от нашего имени они совершают действия, из-за которых возник День памяти жертв Холокоста для евреев».


Цейтлин задается вопросом о значении этого ужасного предложения.

Больше всего Цейтлина потрясло, по его словам, не само существование таких крайних взглядов («сорняки» или «сумасшедшие» всегда существуют), а тот факт, что в этой группе, включающей десятки людей, в том числе докторов и профессоров, никто не возмутился этими высказываниями, а многие даже восприняли их с одобрением или согласием.

На этом этапе Моше Фейглин просит поспорить с Цейтлиным. Он представляет иную точку зрения и утверждает, что тоже был потрясен, но хочет проанализировать ситуацию «холодным умом». Он рассказывает, что когда его старшая дочь проходила альтернативную службу в Яд Вашем, она проводила экскурсии для групп. Когда он спросил ее, как она объясняет посетителям, почему немцы устроили Холокост евреям, она ответила ему (согласно инструкциям, полученным в Яд Вашем): «Я объясняю, что в каждом из нас сидит маленький нацист». Фейглин отмечает, что чуть не потерял контроль над управлением автомобиля, услышав это, и утверждает, что в нем нет никакого нациста, ни маленького, ни большого. Он задается вопросом, почему Яд Вашем, как официальное учреждение Государства Израиль по увековечению памяти жертв Холокоста, выбирает позицию Ханны Арендт о «банальности зла» в качестве официальной версии. По его утверждению, этот подход, берущий начало в «прогрессизме», стирает грань между добром и злом, между жертвой и агрессором (евреем и немцем) и в конечном итоге приводит к тем сравнениям, которые описал Цейтлин, например, звучащим в западных университетах («мы — новые нацисты»), и все это «с любезного позволения Яд Вашем».

Фейглин добавляет, что профессор Циммерман, известный германист, сказал ему: «Народы всегда убивали друг друга, нет никакой разницы». Фейглин категорически отвергает это утверждение и подчеркивает уникальность Холокоста. Он утверждает, что нет абсолютно никаких оснований для сравнения Холокоста, совершенного немцами против евреев — который был абсолютным злом, промышленным актом, совершенным вопреки интересам самого уничтожающего — с любым другим геноцидом в истории. По его мнению, настоящий урок Холокоста заключается в том, что существует шкала зла, крайнюю точку которой, квинтэссенцию зла, представляет нацизм, а еврейский народ, представляющий квинтэссенцию добра, находится ровно на противоположном конце этой шкалы. По мнению Фейглина, именно отказ признать эту еврейскую уникальность, особую идентичность и специфическую роль еврейского народа ведёт к банализации зла и к тем идиотским высказываниям, которые прозвучали в WhatsApp-группе.



אלכס צייטלין פותח ואומר שהוא רוצה לדבר על השואה, אך חייב להתחיל מאירוע שזעזע אותו באותו יום בקבוצת וואטסאפ בשם "אגסי". הוא מתאר את הקבוצה כלא ייצוגית רשמית, אך כזו שכוללת עשרות רבות של אנשים בולטים, בעיקר בשמאל הישראלי (אולי שמאל קיצוני), ומייצגת הלכי רוח מסוימים בחוגי המחאה והשמאל.

צייטלין מתקשה לתאר את האירוע בלי להשתמש בשפה לא תקנית, אך מציין כי הוא מזכיר לו תופעות שראה בקבוצות דתיות קיצוניות (כמו נטורי קרתא), למשל אי-כיבוד יום השואה וחוסר עמידה בצפירה, תוך מתן תירוצים שונים. הוא מביע זעזוע מכך שתופעה זו קיימת כעת גם בשמאל הישראלי, שם אנשים מדברים בזלזול ואף בגאווה על אי-כיבוד יום השואה.

הוא ממשיך ומתאר התבטאויות קיצוניות יותר שקרא בקבוצה וזעזעו אותו עמוקות, במיוחד לאור העובדה שמשפחתו נספתה בשואה. הוא מביא דוגמאות:

* השוואת חיילי צה"ל לנאצים המבצעים שואה.

* פרסום תמונה של ילדה פלסטינית רזה מאוד (שבהמשך התברר כנראה שמדובר בתמונת פייק של ילדה חולה, אך עצם השימוש בה הוא הבעייתי בעיניו).

* ציטוט של מישהי שכתבה שאינה עומדת בצפירה כבר 10 שנים ומסרבת לקחת חלק ביום הזיכרון מעל 20 שנה, בנימוק של פגיעת ישראל בפלסטינים.

* ציטוט נוסף, מזעזע במיוחד לדבריו:

"הילדים שלנו הפכו לקלגסים ובשמנו הם מייצרים התנהלות שבעקבותיה נולד יום השואה של היהודים".


צייטלין תוהה על משמעות המשפט הנורא הזה.

מה שזעזע את צייטלין יותר מכל, לדבריו, אינו עצם קיומן של דעות קיצוניות כאלה ("עשבים שוטים" או "משוגעים" תמיד קיימים), אלא העובדה שבקבוצה זו, הכוללת עשרות אנשים, ביניהם דוקטורים ופרופסורים, איש לא התקומם נגד ההתבטאויות הללו, ורבים אף קיבלו אותן באהדה או הסכמה.

בשלב זה, משה פייגלין (מימין למטה) מבקש להתווכח עם צייטלין. הוא מציג גישה אחרת, וטוען שגם הוא הזדעזע אך רוצה לנתח את הדברים ב"מחשבה קרה". הוא מספר שכאשר בתו הבכורה עשתה שירות לאומי ביד ושם, היא הדריכה קבוצות. כששאל אותה כיצד היא מסבירה למבקרים מדוע הגרמנים עשו את השואה ליהודים, היא ענתה לו (לפי ההדרכה שקיבלה ביד ושם): "אני מסבירה שבכל אחד מאיתנו יש נאצי קטן". פייגלין מציין שכמעט איבד שליטה על ההגה כששמע זאת, וטוען שאין בו שום נאצי, לא קטן ולא גדול. הוא תוהה מדוע יד ושם, כמוסד הרשמי של מדינת ישראל לזיכרון השואה, בוחר להציג את עמדתה של חנה ארנדט על "הבנאליות של הרוע" כגרסה רשמית. לטענתו, גישה זו, שמקורה ב"פרוגרס", מטשטשת את ההבדל בין טוב לרע, בין הקורבן לתוקפן (יהודי לגרמני), ומובילה בסופו של דבר לאותן השוואות שצייטלין תיאר, כמו אלו שנשמעות באוניברסיטאות במערב ("אנחנו הנאצים החדשים"), וכל זאת "באדיבות יד ושם".

פייגלין מוסיף כי פרופסור צימרמן, גרמנולוג מפורסם, טען בפניו ש"עמים תמיד הרגו אחד את השני, אין הבדל". פייגלין דוחה טענה זו מכל וכל, ומדגיש את ייחודיות השואה. הוא טוען שאין שום בסיס להשוואה בין השואה שביצעו הגרמנים ביהודים – שהייתה רוע מוחלט, מעשה תעשייתי שבא על חשבון האינטרס של המשמיד עצמו – לבין כל רצח עם אחר בהיסטוריה. לדעתו, הלקח האמיתי מהשואה הוא שישנה סקאלה של רוע, שהנאציזם מייצג את הקצה הקיצוני שלה, את הרוע המזוקק, והעם היהודי, המייצג את הטוב המזוקק, נמצא בדיוק בצד השני של הסקאלה. פייגלין טוען שהבריחה מההתמודדות עם הייחודיות היהודית הזו, עם הזהות המיוחדת והנקודה הספציפית של העם היהודי, היא שמובילה לבנאליזציה של הרוע ולאותם משפטים מטומטמים שנאמרו בקבוצת הוואטסאפ.


Meta's AI Chief Yann LeCun: "I'm DONE with LLMs" (English, Russian)

Стенограмма и комментарии.



Дискуссии о возможностях и пределах искусственного интеллекта затрагивают фундаментальные вопросы о природе сознания, понимания и самих вычислений. В этом споре выделяются разные точки зрения, представленные, в частности, Роджером Пенроузом, Джоном Сёрлом и Янном ЛеКуном.

Про точку зрения сэра Пенроуза и Сёрла см. тут https://www.toalexsmail.com/2025/04/penrose-godels-theorem-debunks-most.html

И Пенроуз, и Сёрл выражают глубокий скептицизм относительно способности чисто вычислительных систем, таких как современные большие языковые модели (LLM), достичь подлинного интеллекта или сознания. Оба считают, что нынешние ИИ, несмотря на их впечатляющую производительность, не обладают ключевыми атрибутами разума. Однако основания для их скептицизма различаются. Пенроуз утверждает, что сознание требует специфических невычислимых физических процессов, связанных с квантовой механикой, которые принципиально не могут быть симулированы алгоритмами. Сёрл же, в своем знаменитом аргументе "Китайская комната", фокусируется на философской проблеме: он доказывает, что формальная манипуляция символами (синтаксис), которую выполняют компьютеры, сама по себе не способна породить реальное понимание смысла (семантику).

Янн ЛеКун присоединяется к хору критиков, заявляя о своей потере интереса к дальнейшему масштабированию LLM как к пути к сильному ИИ (AGI). Он согласен, что нынешние модели ограничены, но его диагноз и предлагаемое лечение отличаются от позиций Пенроуза и Сёрла. ЛеКун видит проблему не в принципиальной невычислимости сознания или неспособности синтаксиса породить семантику, а в архитектурных и методологических недостатках текущих подходов. По его мнению, LLM не обладают внутренними моделями мира, способностью к полноценному рассуждению и планированию (что соответствует "Системе 2" мышления по Канеману) и обучаются преимущественно на тексте, который содержит лишь малую долю информации о сложном физическом мире по сравнению с богатыми сенсорными данными, особенно визуальными.

Предлагаемое ЛеКуном решение лежит в рамках вычислимых, но принципиально иных подходов. Он делает ставку на архитектуры, подобные JEPA (Joint Embedding Predictive Architecture), способные строить абстрактные внутренние модели мира путем обучения на больших объемах сенсорных данных (например, видео). Такие модели, по его мнению, позволят ИИ понимать физические законы, предсказывать последствия действий, эффективно рассуждать и планировать – то есть обрести те качества, которых лишены современные LLM.

Этот подход косвенно отвечает на вызов Сёрла. Если Сёрл утверждает, что символы в "Китайской комнате" бессмысленны, то ЛеКун предлагает способ "заземлить" внутренние представления ИИ в реальности через сенсорный опыт и построение модели мира. Это перекликается с идеями контраргументов к Сёрлу, таких как "Возражение от робота", где понимание связывается с взаимодействием с реальным миром.

В то же время, программа исследований ЛеКуна явно противоречит позиции Пенроуза. ЛеКун ищет путь к AGI через более совершенные, но все же вычислимые архитектуры и методы обучения. Он не апеллирует к невычислимой физике или квантовым эффектам сознания; наоборот, он подчеркивает важность понимания физического мира через построение вычислительных моделей на основе данных. Если подход ЛеКуна окажется успешным, он продемонстрирует, что сложные вычислительные системы, способные моделировать мир и взаимодействовать с ним, могут достичь понимания и интеллекта без привлечения невычислимой физики, которую Пенроуз считает необходимой.

Таким образом, ЛеКун предлагает "третий путь": признавая ограничения текущих LLM, он видит решение не в выходе за пределы вычислений (как Пенроуз) и не в констатации принципиального разрыва между синтаксисом и семантикой (как Сёрл), а в создании нового поколения вычислительных систем, оснащенных моделями мира и обучаемых на сенсорных данных для достижения более глубокого, "заземленного" понимания реальности.

Ниже есть продолжение.



Более подробно:

Янн ЛеКун, выступая на конференции Nvidia, поделился новостями, которые могут показаться удивительными и даже шокирующими. Он заявил: "Я скажу вам одну вещь, которая может удивить некоторых из вас. Я больше не очень заинтересован в LLM (больших языковых моделях)". Эта фраза вызвала смех в аудитории, но ЛеКун уже некоторое время придерживается этой позиции.

По его мнению, LLM — это "последнее, что есть в руках индустрии", и усилия сейчас направлены на "улучшение на грани", то есть получение большего количества данных, большего вычислительного ресурса, генерацию синтетических данных. Он считает, что есть более интересные вопросы, над которыми стоит работать, и выделяет четыре ключевых:

* Как научить машины понимать физический мир? (Эту тему также затрагивал Дженсен Хуанг).

* Как наделить их постоянной (долговременной) памятью? (Об этом, по словам ЛеКуна, говорят немногие).

* Как научить их рассуждать?

* Как научить их планировать?

ЛеКун критикует текущие попытки заставить LLM рассуждать, называя их "очень упрощенным способом" рассмотрения рассуждений. Он считает, что есть "лучшие способы" это сделать.

Вместо этого он делает ставку на архитектуру, которую называет JEPA (Joint Embedding Predictive Architecture – Архитектура предиктивного совместного встраивания). Это тип архитектуры, основанный на "модели мира" (world model). Цель JEPA — научить ИИ строить внутреннюю, абстрактную модель того, как устроен мир, чтобы он мог использовать эту модель для эффективного рассуждения, планирования и безопасного взаимодействия с реальным миром.

ЛеКун объясняет концепцию модели мира на примере: все мы имеем внутреннюю модель мира. Мы знаем, что если толкнуть эту бутылку сверху, она, скорее всего, опрокинется, а если толкнуть у основания, она поедет. Если нажать слишком сильно, она может лопнуть. Эта внутренняя модель физического мира, которую мы приобретаем в первые месяцы жизни, позволяет нам взаимодействовать с реальным миром. Он отмечает, что младенцы начинают понимать базовые принципы физики (например, гравитацию, постоянство объектов) примерно к 9 месяцам. Если показать 5-6-месячному ребенку физически невозможную сцену (например, объект, парящий в воздухе без опоры), он не удивится. Но 9-10-месячный ребенок будет смотреть на это широко раскрытыми глазами, потому что это нарушает его формирующуюся модель мира. Именно это удивление, расхождение между предсказанием модели и реальностью, заставляет нас обращать внимание и учиться.

Однако, по словам ЛеКуна, попытки научить ИИ строить модели мира путем прямого предсказания видео на уровне пикселей (как в автоэнкодерах типа MAE, примененных к видео) в основном провалились. Причина в том, что мир содержит много непредсказуемых деталей, и система тратит слишком много ресурсов, пытаясь предсказать то, что предсказать невозможно (например, точное движение листьев на дереве). Это "пустая трата ресурсов". Проект MAE для видео был в итоге остановлен.

Архитектуры JEPA работают иначе. Они учатся предсказывать не сами пиксели, а абстрактные представления будущих состояний мира. Система получает представление части входных данных (например, кусок видео) и учится предсказывать представление другой части входных данных (например, следующего куска видео) в этом абстрактном пространстве. Это позволяет игнорировать непредсказуемую информацию низкого уровня и фокусироваться на сути происходящего. ЛеКун упоминает успешные реализации этой идеи для изображений (I-JEPA) и первую версию для видео (V-JEPA), которая обучалась на коротких 16-кадровых клипах.

ЛеКун также подчеркивает фундаментальное различие между обучением на тексте и обучением на сенсорных данных из реального мира, особенно визуальных. Он приводит расчет: за первые 4 года жизни ребенок бодрствует около 16 000 часов. Через зрительный нерв в мозг поступает примерно 2 МБ данных в секунду. Перемножив это, получаем около 1015 байт визуальной информации. Современные LLM обучаются примерно на 1014 байт текста (около 30 триллионов токенов). Чтобы прочитать такой объем текста, человеку потребовалось бы 400 000 лет. Вывод ЛеКуна: мы никогда не достигнем AGI, обучая системы только на тексте, так как объем информации о мире, содержащийся в тексте, ничтожен по сравнению с тем, что можно получить через наблюдение.

Кроме того, ЛеКун указывает на проблему дискретности токенов, используемых в LLM. Текст и речь дискретны, что упрощает их обработку, но реальный мир (особенно через зрение) является высокоразмерным и непрерывным. Пытаться представлять этот сложный мир с помощью дискретных токенов — неверный путь. Даже автономные транспортные средства, использующие токены с датчиков, ограничены этим подходом.

ЛеКун связывает это с концепцией Системы 1 и Системы 2 мышления (по Даниэлю Канеману). Система 1 — быстрое, интуитивное, реактивное, подсознательное мышление (например, навыки вождения у опытного водителя). Система 2 — медленное, сознательное, требующее усилий рассуждение и планирование (как у новичка за рулем или при решении сложной задачи). По его мнению, LLM хорошо справляются с задачами Системы 1, но для достижения AGI необходима мощная Система 2. У людей задачи, которые изначально требуют Системы 2, при многократном повторении "компилируются" в политику Системы 1 (становятся автоматическими). Для ИИ способность к планированию (Система 2) требует наличия модели мира.

Стоит отметить, что идеи о моделях мира не новы и высказываются не только ЛеКуном. Демис Хассабис из Google DeepMind также говорит о необходимости создания ИИ с внутренними моделями мира. Их проект Astra, позволяющий ИИ воспринимать мир через очки пользователя, направлен на это. Доктор Джим Фан также обсуждает эту тему, хотя и расходится в определениях с некоторыми работами, и ссылается на Юргена Шмидхубера, который, по его словам, впервые использовал термин "модель мира" в контексте глубокого обучения с подкреплением еще в 1990 году (на примере агента, обучавшегося играть в Doom, используя внутреннюю модель мира как "симулятор физики").

ЛеКун считает, что нынешняя волна ИИ, сосредоточенная на масштабировании LLM, "ошибочна" и не приведет к настоящему интеллекту. Исторически, по его словам, каждые 10 лет в ИИ возникает новая волна идей, авторы которых заявляют, что именно это приведет к ИИ человеческого уровня в ближайшие 5-10 лет, но этого не происходит. Он предсказывает, что нынешний подход, основанный на авторегрессивных LLM, также столкнется с ограничениями. Однако он с оптимизмом смотрит на архитектуры, основанные на моделях мира, такие как JEPA, и считает, что они являются гораздо более перспективным направлением для достижения AGI, возможно, в течение следующего десятилетия. Он ожидает, что подходы, основанные на моделях мира, приведут к значительному прогрессу, особенно в робототехнике, в ближайшие 3-5 лет.

При этом ЛеКун скептически относится к краткосрочному влиянию квантовых вычислений на ИИ, за исключением, возможно, симуляции самих квантовых систем. Он также считает, что оптические вычисления пока не оправдали возложенных на них надежд.

В конце интервью ЛеКун в шутку просит Дженсена Хуанга снизить цены на GPU, на что тот отвечает своей знаменитой фразой: "Чем больше вы покупаете, тем больше экономите".



Discussions about the capabilities and limits of artificial intelligence touch upon fundamental questions about the nature of consciousness, understanding, and computation itself. Within this debate, distinct viewpoints emerge, represented notably by Roger Penrose, John Searle, and Yann LeCun.

Both Penrose and Searle express deep skepticism regarding the ability of purely computational systems, such as modern large language models (LLMs), to achieve genuine intelligence or consciousness. Both believe that current AI, despite its impressive performance, lacks the key attributes of mind. However, the grounds for their skepticism differ. Penrose argues that consciousness requires specific non-computable physical processes, linked to quantum mechanics, which are fundamentally impossible to simulate with algorithms. Searle, in his famous "Chinese Room" argument, focuses on a philosophical problem: he contends that the formal symbol manipulation (syntax) performed by computers cannot, by itself, generate real understanding of meaning (semantics).

Yann LeCun joins the chorus of critics, stating his waning interest in further scaling LLMs as a path to strong AI (AGI). He agrees that current models are limited, but his diagnosis and proposed cure differ from those of Penrose and Searle. LeCun sees the problem not in the fundamental non-computability of consciousness or the inability of syntax to generate semantics, but rather in the architectural and methodological shortcomings of current approaches. In his view, LLMs lack internal world models, the capacity for robust reasoning and planning (corresponding to Kahneman's "System 2" thinking), and are trained predominantly on text, which contains only a minuscule fraction of information about the complex physical world compared to rich sensory data, especially vision.

The solution proposed by LeCun lies within computable, yet fundamentally different, approaches. He bets on architectures like JEPA (Joint Embedding Predictive Architecture), capable of building abstract internal world models by learning from large volumes of sensory data (e.g., video). Such models, in his opinion, will enable AI to understand physical laws, predict the consequences of actions, reason effectively, and plan – thereby acquiring the qualities that current LLMs lack.

This approach indirectly addresses Searle's challenge. Whereas Searle argues that the symbols in the "Chinese Room" are meaningless, LeCun proposes a way to "ground" AI's internal representations in reality through sensory experience and world model construction. This resonates with counterarguments to Searle, such as the "Robot Reply," which links understanding to interaction with the real world.

At the same time, LeCun's research program stands in clear contrast to Penrose's position. LeCun seeks the path to AGI through more advanced, yet still computable, architectures and learning methods. He does not appeal to non-computable physics or quantum effects of consciousness; on the contrary, he emphasizes the importance of understanding the physical world by building computational models based on data. If LeCun's approach proves successful, it would demonstrate that complex computational systems capable of modeling and interacting with the world can achieve understanding and intelligence without resorting to the non-computable physics Penrose deems necessary.

Thus, LeCun proposes a "third way": acknowledging the limitations of current LLMs, he sees the solution not in going beyond computation (like Penrose) nor in accepting a fundamental gap between syntax and semantics (like Searle), but in creating a new generation of computational systems equipped with world models and trained on sensory data to achieve a deeper, "grounded" understanding of reality.



In more details:

Yann LeCun, speaking at the Nvidia conference, shared news that might seem surprising and even shocking. He stated: "I'll tell you one thing which may surprise a few of you. I'm not so interested in LLMs (Large Language Models) anymore." This statement drew laughter from the audience, but LeCun has held this position for some time.

In his view, LLMs are "the last thing there is in the hands of... industry product people," and current efforts are focused on "improving at the margin," meaning getting more data, more compute, and generating synthetic data. He believes there are more interesting questions to work on and highlights four key ones:

* How do you get machines to understand the physical world? (A topic Jensen Huang also touched upon).

* How do you get them to have persistent (long-term) memory? (Something few people talk about, according to LeCun).

* How do you get them to reason?

* How do you get them to plan?

LeCun criticizes current attempts to make LLMs reason, calling it "a very kind of simplistic way of... viewing reasoning." He believes there are "probably... better ways of doing this."

Instead, he is betting on an architecture he calls JEPA (Joint Embedding Predictive Architecture). This is a type of architecture based on a "world model." The goal of JEPA is to teach AI to build an internal, abstract model of how the world works, so it can use this model for effective reasoning, planning, and safe interaction with the real world.

LeCun explains the concept of a world model using an example: we all have an internal world model. We know that if you push this bottle from the top, it will probably flip, but if you push it at the bottom, it will slide. If you press too hard, it might pop. This internal model of the physical world, acquired in the first few months of life, allows us to deal with the real world. He notes that babies start understanding basic physics principles (like gravity, object permanence) around 9 months old. If you show a 5- or 6-month-old baby a physically impossible scenario (like an object floating in mid-air without support), they aren't surprised. But a 9- or 10-month-old baby will look at it with wide eyes because it violates their developing world model. This surprise, this mismatch between the model's prediction and reality, is what makes us pay attention and learn.

However, LeCun states that attempts to train AI to build world models by directly predicting video at the pixel level (like in autoencoders such as MAE applied to video) have mostly failed. The reason is that the world contains too many unpredictable details, and the system wastes too many resources trying to predict things that are inherently unpredictable (like the exact rustling of leaves on a tree). It's a "complete waste of resources." The MAE project for video was eventually stopped.

JEPA architectures work differently. They learn to predict not the pixels themselves, but abstract representations of future world states. The system gets a representation of one part of the input (e.g., a piece of video) and learns to predict the representation of another part (e.g., the next piece of video) in this abstract space. This allows it to ignore low-level unpredictable information and focus on the essence of what's happening. LeCun mentions successful implementations for images (I-JEPA) and the first version for video (V-JEPA), which was trained on short 16-frame clips.

LeCun also emphasizes the fundamental difference between learning from text and learning from real-world sensory data, especially vision. He provides a calculation: in the first 4 years of life, a child is awake for about 16,000 hours. The optic nerve transmits about 2MB of data per second to the brain. Multiplying this out gives roughly 10^15 bytes of visual information. Current LLMs are trained on about 10^14 bytes of text (around 30 trillion tokens). It would take a human 400,000 years to read that much text. LeCun's conclusion: we will never achieve AGI by training systems solely on text, as the amount of information about the world contained in text is minuscule compared to what can be gained through observation.

Furthermore, LeCun points out the problem of the discreteness of tokens used in LLMs. Text and speech are discrete, which simplifies processing, but the real world (especially vision) is high-dimensional and continuous. Trying to represent this complex world using discrete tokens is the wrong approach. Even autonomous vehicles that use tokens from sensors are limited by this.

LeCun connects this to the concept of System 1 and System 2 thinking (from Daniel Kahneman). System 1 is fast, intuitive, reactive, subconscious thinking (like an experienced driver's skills). System 2 is slow, effortful, conscious reasoning and planning (like a novice driver or solving a complex puzzle). In his view, LLMs excel at System 1 tasks, but achieving AGI requires a strong System 2, which relies on understanding the world and the ability to plan. In humans, tasks initially requiring System 2 become "compiled" into a System 1 policy (become automatic) with repeated practice. For AI, the ability to plan (System 2) necessitates a world model.

It's worth noting that the idea of world models isn't new or exclusive to LeCun. Demis Hassabis of Google DeepMind also speaks about the need for AI with internal world models. Their Project Astra, which allows AI to perceive the world through a user's glasses, aims in this direction. Dr. Jim Fan also discusses this topic, though he disagrees with some definitions, and credits Jürgen Schmidhuber for first using the term "world model" in the context of deep reinforcement learning back in 1990 (using the example of an agent learning to play Doom by using an internal world model as a "physics simulator").

LeCun believes the current AI wave focused on scaling LLMs is "wrong" and won't lead to true intelligence. Historically, he says, every 10 years or so, a new wave of AI ideas emerges, with proponents claiming it will lead to human-level AI in 5-10 years, but it hasn't happened. He predicts that the current approach based on autoregressive LLMs will also hit limitations. However, he is optimistic about world model-based architectures like JEPA, viewing them as a much more promising path towards AGI, potentially within the next decade. He expects world model approaches to yield significant progress, especially in robotics, within the next 3-5 years.

LeCun remains skeptical about the near-term impact of quantum computing on AI, except possibly for simulating quantum systems themselves. He also feels optical computing has not yet lived up to its hype.

At the end of the interview, LeCun jokingly asks Jensen Huang to lower GPU prices, to which Huang replies with his famous line: "The more you buy, the more you save."


Penrose: Gödel's theorem debunks the most important AI myth. AI will not be conscious (English, Russian)

Раширенная стенограмма.



См. также: Meta's AI Chief Yann LeCun: "I'm DONE with LLMs"

Краткое содержание и критика: Современные системы искусственного интеллекта фундаментально основаны на вычислениях. Однако Роджер Пенроуз утверждает, что подлинный интеллект невозможен без сознания. Придерживаясь физикалистской позиции (сознание — продукт мозга), он выдвигает гипотезу, что в основе работы мозга лежат не только вычислимые процессы, но и фундаментальные законы физики, которые сами по себе невычислимы. В качестве примера он указывает на возможную невычислимость коллапса квантовой волновой функции.

Исходя из этого, Пенроуз делает радикальный вывод: если сознание порождается физической активностью мозга, включающей такие невычислимые компоненты, то и само сознание наследует эту невычислимость. Следовательно, по его мнению, никакая система, работающая исключительно на основе алгоритмов и вычислений (как современный ИИ), не способна воспроизвести подлинное сознание и интеллект. Для этого потребовалось бы понимание и использование этой невычислимой физики.

Позиция Пенроуза, фокусирующаяся на необходимости специфического внутреннего физического механизма, — это один из аргументов против возможности создания "сильного ИИ" чисто вычислительными методами. Другой известный аргумент принадлежит Джону Сёрлу (эксперимент "Китайская комната" [см. описание в приложении ниже]), который подчеркивает разрыв между формальной обработкой символов (синтаксисом) и реальным пониманием (семантикой), утверждая, что первое не может породить второе.

Однако на аргумент Сёрла существует важный контраргумент, близкий к функционализму или бихевиоризму: что, если неотличимое от разумного внешнее поведение само по себе является достаточным критерием для признания интеллекта или даже сознания? Эта точка зрения ставит под сомнение необходимость заглядывать "внутрь" системы и фокусируется на наблюдаемой функции.

Именно здесь возникает конфликт с позицией Пенроуза. Если принять этот функционалистский взгляд — что поведение является главным или единственным доступным нам критерием — то он оспаривает категорическое требование Пенроуза о невычислимой физике. Ведь тогда теоретически сложные вычисления могут оказаться достаточными для создания нужного разумного поведения. В этом случае специфический невычислимый механизм, на котором настаивает Пенроуз, становится необязательным или его необходимость недоказуемой. Таким образом, функционализм допускает возможность появления сознания или подлинного интеллекта у ИИ на основе вычислений (если поведение будет соответствовать), в то время как Пенроуз это категорически отрицает из-за отсутствия предполагаемого им невычислимого физического фундамента.



Пенроуз: Теорема Гёделя опровергает главный миф об ИИ. ИИ не будет обладать сознанием.

Сэр Роджер Пенроуз начинает с критики самого термина «искусственный интеллект». Он считает название неверным, потому что, по его мнению, настоящий интеллект неотделим от сознания. То, что мы сейчас называем ИИ, на самом деле не обладает интеллектом в этом глубоком смысле.

Он утверждает, что компьютеры, в их нынешнем понимании, являются очень специфическими математическими структурами, основанными на вычислениях (computational mathematics). Однако вычисления — это лишь очень ограниченная часть всей математики.

Ниже есть продолжение.

Пенроуз убежден, что сознание — это нечто большее, чем просто вычисления. Он ссылается на теорему Гёделя о неполноте, чтобы подкрепить свою точку зрения. Суть аргумента Гёделя (использующего так называемый диагональный метод Кантора) заключается в следующем: для любой достаточно сильной и непротиворечивой формальной системы аксиом (способной выразить арифметику натуральных чисел), можно сконструировать математическое утверждение, которое, по сути, говорит о себе: "Это утверждение недоказуемо в данной системе".

Пенроуз подчеркивает вывод Гёделя: если такая система непротиворечива, то это утверждение действительно недоказуемо внутри системы, но при этом оно истинно. Если бы оно было доказуемо, система была бы противоречивой (доказывая ложь). Если бы оно было опровержимо, система также была бы противоречивой (опровергая истину). Таким образом, человеческое математическое понимание позволяет нам "выйти за рамки" формальной системы и увидеть истинность этого гёделевского утверждения, чего сама система сделать не может, оставаясь в пределах своих правил. Это, по мнению Пенроуза, демонстрирует неалгоритмическую (невычислимую) природу понимания и, следовательно, сознания. ИИ же, следуя алгоритмам, может только применять правила, но не понимать их и не выходить за их пределы таким образом.

Именно поэтому он считает, что современные компьютеры и ИИ, основанные исключительно на вычислениях (алгоритмах), никогда не смогут обрести сознание или подлинное понимание. Они могут быть невероятно мощными в обработке данных и следовании правилам (он называет это «искусственной ловкостью» или «смекалкой» — artificial cleverness), но они «не знают, что делают».

Почему же современные ИИ, оперирующие статистикой, всё ещё "вычислимы"?

Здесь важно ввести понятие вычислимой функции (computable function), которое, вероятно, и имеет в виду Пенроуз, говоря о вычислениях. Пенроуз определяет "вычислимость" как любой процесс, который может быть, по крайней мере в принципе, симулирован или выполнен алгоритмом — то есть, конечным набором четких правил, который может исполнить идеализированный компьютер (машина Тьюринга). Формально, это соответствует математическому понятию вычислимой функции: это функция, для которой существует алгоритм, способный вычислить её значение для любого допустимого входного аргумента за конечное число шагов.

Современные системы ИИ, такие как большие языковые модели и нейронные сети, полностью подпадают под это определение:

Обучение: Процесс обучения нейронной сети (например, метод обратного распространения ошибки) — это сложный, но алгоритмический процесс математической оптимизации. Он следует четким правилам для корректировки внутренних параметров (весов) модели на основе данных с целью минимизации ошибки. Этот алгоритм может быть запрограммирован и выполнен компьютером.

Работа (Инференс): Когда обученная модель ИИ генерирует ответ на запрос, она выполняет последовательность четко определенных математических операций (умножение матриц, применение функций активации и т.п.), заданных её архитектурой и выученными весами. Это тоже алгоритм.

Статистика и Вероятности: Хотя ИИ оперирует статистикой и вероятностями, сами эти операции основаны на математических формулах и процедурах, которые являются вычислимыми. Модель не "осознает" вероятности, а рассчитывает их или использует статистические закономерности согласно алгоритмам.

Таким образом, независимо от сложности модели ИИ или того факта, что она работает со статистикой и вероятностями, все её операции сводятся к выполнению алгоритмов, реализующих вычислимые функции. Они не выходят за рамки того, что может сделать машина Тьюринга.

Именно это Пенроуз отличает от человеческого понимания, которое, как он утверждает, ссылаясь на Гёделя, включает неалгоритмический (невычислимый) компонент — способность осознавать смысл и истинность, выходящую за рамки простого следования правилам. ИИ, по его мнению, обрабатывает статистические связи, не обладая сознательным пониманием того, почему эти связи существуют или что они на самом деле означают. Поэтому, сколь бы сложной ни была статистическая модель, она остается в рамках вычислимого мира.

Пенроуз выражает обеспокоенность тем, что из-за впечатляющей мощности современных компьютеров и ИИ, люди «потеряли нить» или «упустили суть». Он уточняет, что «суть», которую упускают, — это фундаментальное различие между вычислениями (в чем ИИ преуспевает) и подлинным пониманием или сознанием. Люди настолько заворожены возможностями ИИ — его способностью обрабатывать огромные объемы данных, находить сложные статистические закономерности и генерировать убедительные результаты, — что приравнивают это вычислительное мастерство к настоящему интеллекту и, возможно, сознанию. Они упускают из виду ключевой вопрос: понимают ли эти системы то, что делают, так же, как это делает сознательное существо? Этот фокус на мощности и производительности вычислительных систем отвлекает от более глубоких философских вопросов и, как считает Пенроуз, от необходимой физики для объяснения разума. Они путают изощренную имитацию, основанную на алгоритмах и данных, с наличием подлинной мысли и осознания.

Он различает классическую реальность и квантовую реальность. Классическая реальность относится к макроскопическому миру, с которым мы обычно взаимодействуем, где объекты обладают определенными свойствами (например, конкретной формой и положением стакана), которые можно наблюдать и измерять, не изменяя сам объект принципиально. Мы можем, в принципе, установить (ascertain) эти свойства. Квантовая реальность, однако, описываемая волновой функцией, иная. Она описывает возможности или потенциальные состояния. Квантовая система до измерения часто существует в суперпозиции нескольких состояний одновременно. Мы не можем непосредственно наблюдать эту суперпозицию. Акт измерения заставляет систему «выбрать» одно состояние — процесс, называемый коллапсом волновой функции. Следовательно, мы не устанавливаем заранее существующее определенное свойство; мы взаимодействуем с системой таким образом, что заставляем ее проявить одно из ее потенциальных свойств, и можем лишь подтвердить (confirm), какой результат получился. Сам акт измерения является «вторжением» и изменяет систему, переводя ее из состояния суперпозиции в определенное состояние. Пенроуз приводит пример спина частицы: квантовая механика описывает его спиновое состояние до измерения не как указывающее в одном конкретном направлении, а как суперпозицию возможностей, и только измерение вдоль выбранной оси дает определенный результат «вверх» или «вниз» для этой оси.

Пенроуз указывает на странности квантовой механики, такие как квантовая запутанность (ярко иллюстрируемая парадоксом Эйнштейна-Подольского-Розена, или ЭПР). Запутанность описывает ситуацию, когда две или более частицы связываются таким образом, что разделяют одну и ту же судьбу, независимо от того, насколько далеко они разнесены. Измерение свойства одной запутанной частицы мгновенно влияет на свойства другой (других), что, казалось бы, нарушает принцип, согласно которому влияния не могут распространяться быстрее скорости света. Это свойство называется нелокальностью. Хотя эти корреляции реальны и экспериментально подтверждены, их нельзя использовать для передачи информации быстрее света, что сохраняет стандартную причинность в этом смысле. Однако Пенроуз утверждает, что эти нелокальные корреляции и то, как выбор измерения, по-видимому, мгновенно влияет на удаленные частицы, или даже кажется «ретропричинным» в некоторых теоретических анализах (где будущие выборы измерений, кажется, ограничивают настоящую реальность, хотя опять же, без сверхсветовой сигнализации), убедительно свидетельствуют о том, что квантовая реальность функционирует способами, которые бросают вызов нашей классической интуиции о пространстве, времени и причинности. Эти «странные» аспекты, по его мнению, являются ключевыми подсказками, указывающими на то, что физика, управляющая переходом от квантовой суперпозиции к определенному классическому результату (процесс измерения или коллапс волновой функции), не до конца понята и, вероятно, включает невычислимые процессы.

Он считает, что коллапс волновой функции (или редукция состояния) — это не просто субъективное обновление знаний наблюдателя и не просто эффект декогеренции из-за взаимодействия с окружением (которая сама по себе обычно считается вычислимым процессом, управляемым стандартным уравнением Шрёдингера). Вместо этого Пенроуз утверждает, что это должен быть реальный, объективный физический процесс («Объективная Редукция» или ОР), которого в настоящее время не хватает в наших фундаментальных теориях. [Эта идея является спорной в научном сообществе]. Важно отметить, что, по его мнению, этот объективный физический процесс не является вычислимым; он не может быть симулирован никаким алгоритмом или машиной Тьюринга. Стандартная эволюция квантовой системы, описываемая уравнением Шрёдингера, вычислима, но коллапс — событие, которое производит определенный результат из суперпозиции во время измерения — включает, с его точки зрения, новую физику, которая фундаментально неалгоритмична. Он предполагает, что это может быть связано с границей между квантовой механикой и общей теорией относительности (в частности, с эффектами квантовой гравитации), но ключевым моментом является ее невычислимая природа. Именно эта невычислимость отличает ее от всех процессов, которые в настоящее время моделируются компьютерами, включая ИИ.

Поскольку Пенроуз придерживается физикалистской позиции (то есть верит, что сознание возникает из физических процессов в мозге, а не из чего-то сверхъестественного или дуалистического), он делает радикальный вывод: если сознание является продуктом физической активности мозга, и если эта активность обязательно включает этот невычислимый физический процесс (объективный коллапс волновой функции), то само сознание должно обладать невычислимыми качествами. Оно не может быть полностью воспроизведено никакой системой, которая работает исключительно на основе алгоритмов и вычислений, независимо от ее сложности или мощности. Это, следовательно, устанавливает фундаментальный предел для существующего и обозримого ИИ, который по своей сути основан на вычислениях. Настоящий искусственный интеллект, в смысле искусственного сознания, потребовал бы использования или воспроизведения этой невычислимой физики, чего-то, что находится за пределами современных алгоритмических подходов.

Другими словами, невычислимость — это не просто нечто, что мозг использует для создания сознания; это фундаментальное свойство самого процесса, порождающего сознание. Поэтому сознание не может быть сведено к чисто алгоритмической, вычислимой системе или полностью воспроизведено ею, независимо от ее сложности или мощности. Это как пытаться испечь особый хлеб без дрожжей, просто следуя рецепту – результат будет другим, потому что именно нелинейное действие дрожжей (аналог невычислимой физики) придает хлебу (аналогу сознания) его уникальные свойства.

Таким образом, это устанавливает фундаментальный предел для существующего и обозримого ИИ, который по своей сути основан на вычислениях. Создание настоящего искусственного интеллекта, в смысле искусственного сознания, потребовало бы выхода за рамки алгоритмов и использования или воспроизведения этой самой невычислимой физики.

Он также скептически относится к Нобелевским премиям, связанным с ИИ. По его мнению, они отмечают технологические достижения в области вычислений, а не прорывы в понимании природы интеллекта или сознания как таковых.

В заключение, Пенроуз еще раз подчеркивает фундаментальное различие между тем, что сейчас называют «искусственным интеллектом» (что он скорее назвал бы «искусственной смекалкой» или вычислительной способностью), и подлинным интеллектом, который требует сознательного понимания.

Чтобы проиллюстрировать это, он приводит пример двух студентов-математиков. Один студент может быть очень «сообразительным» (clever) – он отлично запоминает правила, формулы и алгоритмы, может безупречно применять их для решения стандартных задач и получать хорошие оценки. Он действует подобно современному ИИ – эффективно выполняет вычисления и следует процедурам. Однако он может не понимать глубинного смысла этих правил или почему математическое утверждение истинно, кроме как через формальное следование шагам доказательства.

Другой студент может быть не таким быстрым в рутинных вычислениях, но он стремится к пониманию (understanding). Он пытается уловить суть концепций, интуитивно почувствовать истинность утверждений, увидеть связи, выходящие за рамки заученных алгоритмов. Именно этот тип понимания, по мнению Пенроуза, связан с сознанием и позволяет человеку, например, осознать истинность утверждения Гёделя, которое формально недоказуемо в рамках системы.

А это понимание, по его убеждению, коренится в невычислимых процессах физики и не может быть достигнуто чисто вычислительными методами. ИИ, как первый студент, может стать невероятно «сообразительным», но никогда не обретет подлинного понимания, свойственного второму студенту, пока не будет основан на иной, невычислимой физике.

Приложение.

Описание мысленного эксперимента Джона Сёрла "Китайская комната":

Представьте себе человека, запертого в комнате, который совершенно не понимает китайского языка — ни письменного, ни устного. В комнате есть ящики с китайскими иероглифами и большая книга инструкций на его родном языке (например, на английском). Эти инструкции представляют собой очень сложный алгоритм, который говорит ему, как манипулировать иероглифами: если вы получаете такой-то набор символов, то найдите и выдайте такой-то другой набор символов.

Через щель в двери ему передают записки с вопросами, написанными по-китайски. Человек, не понимая ни единого иероглифа, тщательно следует инструкциям из книги. Он находит входящие символы в правилах, смотрит, какие символы он должен выдать в ответ, собирает их из ящиков и передает обратно через щель.

Предположим, что инструкции (программа) настолько хороши, что ответы, которые выдает человек, абсолютно неотличимы от ответов, которые дал бы носитель китайского языка. Для любого внешнего наблюдателя, знающего китайский, система "человек в комнате + книга правил" превосходно демонстрирует понимание китайского языка — она успешно проходит тест Тьюринга.

Однако, как подчеркивает Сёрл, сам человек внутри комнаты по-прежнему не понимает ни слова по-китайски. Он просто выполняет формальные, синтаксические манипуляции с символами, которые для него бессмысленны. Он следует правилам, но у него нет доступа к значению (семантике) этих символов.

Вывод Сёрла из этого эксперимента таков: выполнение компьютерной программы, даже такой, которая идеально имитирует разумное поведение (как в случае с комнатой), само по себе не является достаточным условием для возникновения подлинного понимания или сознания. Манипулирование синтаксисом не порождает семантику. Следовательно, сильный ИИ (то есть ИИ с реальным сознанием и пониманием) не может быть создан просто путем запуска правильной программы на компьютере.

Вот основные контраргументы:



Возражение от системы (The Systems Reply): Этот контраргумент утверждает, что Сёрл неправ, фокусируясь только на человеке внутри комнаты. Хотя сам человек не понимает китайский, пониманием обладает вся система в целом — то есть человек, книга правил, ящики с иероглифами и записки, работающие вместе. Понимание является свойством всей системы, а не только одного её компонента (человека). Человек — это лишь центральный процессор, выполняющий программу, но именно система как единое целое демонстрирует понимание.

Возражение от робота (The Robot Reply): Критики указывают, что изолированная комната лишена важного аспекта — взаимодействия с реальным миром [об этом будет отдельная заметка]. Если бы эту систему (программу и процессор) поместили в тело робота, который мог бы двигаться, видеть, слышать, манипулировать объектами и связывать китайские символы с реальными вещами и событиями в мире, то тогда у системы появилось бы подлинное понимание. Символы обрели бы смысл (семантику) через "заземление" в сенсорном опыте и действиях.

Возражение от симулятора мозга (The Brain Simulator Reply): Представим, что программа в комнате не просто манипулирует символами, а точно симулирует нейронную активность мозга носителя китайского языка, когда тот обрабатывает вопросы и дает ответы. Если симуляция настолько точна, что воспроизводит все функциональные состояния нейронов настоящего китайского мозга, то на каком основании можно отрицать, что эта симуляция понимает китайский? Ведь она функционально эквивалентна мозгу, который точно понимает.

Возражение от других сознаний (The Other Minds Reply): Этот аргумент ставит под сомнение сам метод Сёрла. Мы судим о понимании и сознании других людей исключительно по их поведению. Если система "Китайская комната" ведет себя неотличимо от человека, понимающего китайский, то как мы можем быть уверены, что она не понимает, в то время как мы уверены (или предполагаем), что другие люди понимают? Отказ признать понимание за комнатой может быть просто предрассудком по отношению к небиологическим системам.

Возражение от интуиции (The Intuition Reply): Некоторые критики считают, что сила аргумента Сёрла во многом опирается на нашу интуицию, которая подсказывает, что человек в комнате "очевидно" не понимает. Однако наши интуиции могут быть ненадежны, особенно когда речь идет о сложных и незнакомых системах, таких как ИИ или сама природа сознания. То, что кажется невозможным или неинтуитивным на одном уровне описания, может оказаться реальностью на другом, более высоком уровне организации системы.

Эти контраргументы, по сути, защищают идею о том, что достаточно сложные и правильно организованные вычисления могут привести к пониманию или сознанию. Отстаивая достаточность вычислений (при определенных условиях) для возникновения понимания, эти контраргументы оспаривают не только вывод Сёрла о разрыве между синтаксисом и семантикой, но и фундаментальное требование Пенроуза о необходимости особой, невычислимой физики. Если сложные вычисления могут породить сознание, то специфическая физика Пенроуза становится необязательной.

Brief Summary and Critique:

Modern artificial intelligence systems are fundamentally based on computation. However, Roger Penrose argues that genuine intelligence is impossible without consciousness. Adhering to a physicalist position (consciousness is a product of the brain), he hypothesizes that the workings of the brain are based not only on computable processes but also on fundamental laws of physics that are themselves non-computable. As an example, he points to the possible non-computability of the quantum wave function collapse.

Based on this, Penrose draws a radical conclusion: if consciousness arises from the physical activity of the brain, which includes such non-computable components, then consciousness itself inherits this non-computability. Therefore, in his view, no system operating solely on algorithms and computations (like modern AI) is capable of reproducing genuine consciousness and intelligence. This would require understanding and utilizing this non-computable physics.

Penrose's position, focusing on the necessity of a specific internal physical mechanism, is one argument against the possibility of creating AGI through purely computational methods. Another famous argument comes from John Searle (the "Chinese Room" thought experiment [see description in the appendix below]), who highlights the gap between formal symbol manipulation (syntax) and real understanding (semantics), arguing that the former cannot give rise to the latter.

However, there is an important counter-argument to Searle, closely related to functionalism or behaviorism: what if external behavior, indistinguishable from intelligent behavior, is itself a sufficient criterion for recognizing intelligence or even consciousness? This viewpoint questions the need to look "inside" the system and focuses on the observable function.

This is precisely where a conflict with Penrose's position arises. If one accepts this functionalist view—that behavior is the primary or only available criterion—then it challenges Penrose's strict requirement for non-computable physics. This is because, theoretically, complex computations could be sufficient to produce the required intelligent behavior. In that case, the specific non-computable mechanism Penrose insists on becomes optional, or its necessity unprovable. Thus, functionalism allows for the possibility of consciousness or genuine intelligence emerging in AI based on computation (if the behavior is appropriate), whereas Penrose categorically denies this due to the absence of the non-computable physical foundation he postulates.



Penrose: Gödel's Theorem Refutes the Main Myth About AI. AI Will Not Possess Consciousness.

Sir Roger Penrose begins by criticizing the very term "artificial intelligence." He considers the name incorrect because, in his opinion, true intelligence is inseparable from consciousness. What we currently call AI does not actually possess intelligence in this deep sense.

He argues that computers, as currently understood, are very specific mathematical structures based on computations (computational mathematics). However, computation is only a very limited part of all mathematics.

Penrose is convinced that consciousness is something more than just computation. He refers to Gödel's incompleteness theorem to support his view. The essence of Gödel's argument (using Cantor's so-called diagonal method) is as follows: for any sufficiently strong and consistent formal system of axioms (capable of expressing natural number arithmetic), one can construct a mathematical statement that essentially says about itself: "This statement is unprovable within this system."

Penrose emphasizes Gödel's conclusion: if such a system is consistent, then this statement is indeed unprovable within the system, yet it is true. If it were provable, the system would be inconsistent (proving a falsehood). If it were refutable, the system would also be inconsistent (refuting a truth). Thus, human mathematical understanding allows us to "step outside" the formal system and see the truth of this Gödelian statement, which the system itself cannot do while remaining within its rules. This, according to Penrose, demonstrates the non-algorithmic (non-computable) nature of understanding and, consequently, consciousness. AI, however, following algorithms, can only apply rules but cannot understand them or transcend them in this way.

That is why he believes that modern computers and AI, based solely on computations (algorithms), will never be able to achieve consciousness or genuine understanding. They can be incredibly powerful in processing data and following rules (he calls this "artificial cleverness"), but they "don't know what they are doing."

Why then are modern AIs, operating with statistics, still "computable"?

Here it is important to introduce the concept of a computable function, which Penrose likely means when speaking of computation. Penrose defines "computability" as any process that can be, at least in principle, simulated or executed by an algorithm—that is, a finite set of clear rules that can be executed by an idealized computer (Turing machine). Formally, this corresponds to the mathematical concept of a computable function: it is a function for which an algorithm exists that can compute its value for any valid input argument in a finite number of steps.

Modern AI systems, such as large language models and neural networks, fall entirely under this definition:

Training: The process of training a neural network (e.g., backpropagation) is a complex but algorithmic process of mathematical optimization. It follows clear rules to adjust the model's internal parameters (weights) based on data to minimize error. This algorithm can be programmed and executed by a computer.

Operation (Inference): When a trained AI model generates a response to a query, it performs a sequence of well-defined mathematical operations (matrix multiplications, applying activation functions, etc.) specified by its architecture and learned weights. This is also an algorithm.

Statistics and Probabilities: Although AI operates with statistics and probabilities, these operations themselves are based on mathematical formulas and procedures that are computable. The model doesn't "understand" probabilities; it calculates them or uses statistical patterns according to algorithms.

Thus, regardless of the complexity of the AI model or the fact that it works with statistics and probabilities, all its operations reduce to executing algorithms that implement computable functions. They do not go beyond what a Turing machine can do.

This is what Penrose distinguishes from human understanding, which, he argues referencing Gödel, includes a non-algorithmic (non-computable) component—the ability to grasp meaning and truth that goes beyond merely following rules. AI, in his view, processes statistical correlations without conscious understanding of why these correlations exist or what they truly mean. Therefore, however complex the statistical model, it remains within the computable realm.

Penrose expresses concern that due to the impressive power of modern computers and AI, people have "lost the thread" or "missed the point." He clarifies that the "point" being missed is the fundamental difference between computation (at which AI excels) and genuine understanding or consciousness. People are so mesmerized by AI's capabilities—its ability to process vast amounts of data, find complex statistical patterns, and generate convincing results—that they equate this computational prowess with real intelligence and, potentially, consciousness. They overlook the key question: do these systems understand what they are doing in the way a conscious being does? This focus on the power and performance of computational systems distracts from deeper philosophical questions and, Penrose believes, from the necessary physics to explain the mind. They confuse sophisticated imitation, based on algorithms and data, with the presence of genuine thought and awareness.

He distinguishes between classical reality and quantum reality. Classical reality refers to the macroscopic world we typically interact with, where objects possess definite properties (like a glass having a specific shape and location) that can be observed and measured without fundamentally altering the object itself. We can, in principle, ascertain these properties. Quantum reality, however, described by the wave function, is different. It describes possibilities or potential states. A quantum system before measurement often exists in a superposition of multiple states simultaneously. We cannot directly observe this superposition. The act of measurement forces the system to "choose" one state—a process called wave function collapse. Consequently, we don't ascertain a pre-existing definite property; we interact with the system in a way that forces it to manifest one of its potential properties, and can only confirm which result was obtained. The act of measurement itself is an "intrusion" and changes the system, taking it from a superposition state to a definite one. Penrose gives the example of particle spin: quantum mechanics describes its spin state before measurement not as pointing in one specific direction, but as a superposition of possibilities, and only measurement along a chosen axis yields a definite 'up' or 'down' result for that axis.

Penrose points to the strangeness of quantum mechanics, such as quantum entanglement (vividly illustrated by the Einstein-Podolsky-Rosen, or EPR, paradox). Entanglement describes a situation where two or more particles become linked in such a way that they share the same fate, no matter how far apart they are separated. Measuring a property of one entangled particle instantly influences the properties of the other(s), seemingly violating the principle that influences cannot travel faster than light. This property is called non-locality. While these correlations are real and experimentally confirmed, they cannot be used to transmit information faster than light, preserving standard causality in that sense. However, Penrose argues that these non-local correlations, and the way measurement choices seem to instantly affect distant particles, or even appear "retrocausal" in some theoretical analyses (where future measurement choices seem to constrain present reality, though again, without FTL signaling), strongly suggest that quantum reality operates in ways that challenge our classical intuitions about space, time, and causality. These "weird" aspects, in his view, are key clues pointing towards the physics governing the transition from quantum superposition to definite classical outcome (the measurement process or wave function collapse) being incompletely understood and likely involving non-computable processes.

He believes that wave function collapse (or state reduction) is not merely a subjective update of observer knowledge nor just an effect of decoherence due to interaction with the environment (which itself is usually considered a computable process governed by the standard Schrödinger equation). Instead, Penrose argues it must be a real, objective physical process ("Objective Reduction" or OR) currently missing from our fundamental theories. [This idea is controversial in the scientific community]. Crucially, in his view, this objective physical process is non-computable; it cannot be simulated by any algorithm or Turing machine. The standard evolution of a quantum system described by the Schrödinger equation is computable, but the collapse—the event that produces a definite outcome from a superposition during measurement—involves, in his view, new physics that is fundamentally non-algorithmic. He suggests it might relate to the interface between quantum mechanics and general relativity (specifically quantum gravity effects), but the key point is its non-computable nature. It is this non-computability that distinguishes it from all processes currently modeled by computers, including AI.

Since Penrose holds a physicalist position (i.e., believes consciousness arises from physical processes in the brain, not from anything supernatural or dualistic), he draws a radical conclusion: if consciousness is a product of the brain's physical activity, and if this activity necessarily involves this non-computable physical process (objective wave function collapse), then consciousness itself must possess non-computable qualities. It cannot be fully replicated by any system that operates solely on algorithms and computations, regardless of its complexity or power. This, therefore, sets a fundamental limit on existing and foreseeable AI, which is inherently based on computation. True artificial intelligence, in the sense of artificial consciousness, would require harnessing or replicating this non-computable physics, something beyond current algorithmic approaches.

In other words, non-computability is not just something the brain uses to create consciousness; it is a fundamental property of the very process generating consciousness. Therefore, consciousness cannot be reduced to, or fully replicated by, a purely algorithmic, computable system, regardless of its complexity or power. It's like trying to bake a special bread without yeast just by following the recipe – the result will be different because it's the non-linear action of the yeast (analogue of non-computable physics) that gives the bread (analogue of consciousness) its unique properties.

Thus, this sets a fundamental limit on existing and foreseeable AI, which is inherently based on computation. Creating true artificial intelligence, in the sense of artificial consciousness, would require going beyond algorithms and harnessing or replicating this very non-computable physics.

He is also skeptical about Nobel Prizes related to AI. In his view, they celebrate technological achievements in computation, not breakthroughs in understanding the nature of intelligence or consciousness itself.

In conclusion, Penrose emphasizes once again the fundamental difference between what is now called "artificial intelligence" (which he would rather call "artificial cleverness" or computational ability) and genuine intelligence, which requires conscious understanding.

To illustrate this, he gives the example of two mathematics students. One student might be very "clever" – excellent at memorizing rules, formulas, and algorithms, able to apply them flawlessly to solve standard problems and get good grades. This student acts like modern AI – efficiently performing calculations and following procedures. However, they might not grasp the deep meaning of these rules or why a mathematical statement is true, other than by formally following the steps of a proof.

The other student might not be as fast at routine calculations, but strives for understanding. They try to grasp the essence of concepts, intuitively feel the truth of statements, see connections beyond learned algorithms. It is this type of understanding, according to Penrose, that is linked to consciousness and allows a person, for example, to grasp the truth of a Gödel statement that is formally unprovable within its system.

And this understanding, he believes, is rooted in the non-computable processes of physics and cannot be achieved by purely computational methods. AI, like the first student, can become incredibly "clever" but will never attain the genuine understanding of the second student unless it is based on different, non-computable physics.

Appendix:

Description of John Searle's "Chinese Room" thought experiment:

Imagine a person locked in a room who does not understand Chinese at all – neither written nor spoken. Inside the room, there are boxes filled with Chinese characters and a large instruction book written in their native language (e.g., English). These instructions constitute a very complex algorithm that tells them how to manipulate the characters: if you receive such-and-such set of symbols, then find and output such-and-such other set of symbols.

Through a slot in the door, notes with questions written in Chinese are passed to them. The person, without understanding a single character, meticulously follows the instructions in the book. They find the incoming symbols in the rules, see which symbols they should output in response, gather them from the boxes, and pass them back through the slot.

Assume that the instructions (the program) are so good that the answers the person outputs are absolutely indistinguishable from the answers a native Chinese speaker would give. To any external observer who knows Chinese, the system "person in the room + rule book" perfectly demonstrates understanding of the Chinese language—it successfully passes the Turing test.

However, as Searle emphasizes, the person inside the room still does not understand a word of Chinese. They are merely performing formal, syntactic manipulations on symbols that are meaningless to them. They follow the rules but have no access to the meaning (semantics) of these symbols.

Searle's conclusion from this experiment is as follows: executing a computer program, even one that perfectly mimics intelligent behavior (as in the case of the room), is not, by itself, a sufficient condition for the emergence of genuine understanding or consciousness. Manipulating syntax does not generate semantics. Consequently, strong AI (i.e., AI with real consciousness and understanding) cannot be created merely by running the right program on a computer.

Here are the main counterarguments:

The Systems Reply: This counterargument asserts that Searle is wrong to focus only on the person inside the room. Although the person themselves does not understand Chinese, understanding is possessed by the entire system as a whole—that is, the person, the rule book, the boxes of characters, and the notes working together. Understanding is a property of the entire system, not just one of its components (the person). The person is merely the central processor executing the program, but it is the system as a whole that demonstrates understanding.

The Robot Reply: Critics point out that the isolated room lacks a crucial aspect—interaction with the real world [there will be a separate note on this]. If this system (program and processor) were placed inside the body of a robot capable of moving, seeing, hearing, manipulating objects, and associating Chinese symbols with real things and events in the world, then the system would acquire genuine understanding. The symbols would gain meaning (semantics) through "grounding" in sensory experience and actions.

The Brain Simulator Reply: Imagine that the program in the room does not just manipulate symbols but accurately simulates the neural activity of a native Chinese speaker's brain as they process questions and provide answers. If the simulation is so precise that it replicates all the functional states of the neurons in a real Chinese brain, then on what grounds can one deny that this simulation understands Chinese? After all, it is functionally equivalent to a brain that definitely understands.

The Other Minds Reply: This argument questions Searle's method itself. We judge the understanding and consciousness of other people solely based on their behavior. If the "Chinese Room" system behaves indistinguishably from a person who understands Chinese, how can we be certain that it doesn't understand, while we are certain (or assume) that other humans do? Refusing to attribute understanding to the room might simply be prejudice against non-biological systems.

The Intuition Reply: Some critics believe that the force of Searle's argument relies heavily on our intuition, which suggests that the person in the room "obviously" doesn't understand. However, our intuitions can be unreliable, especially when dealing with complex and unfamiliar systems like AI or the nature of consciousness itself. What seems impossible or counterintuitive at one level of description might be a reality at another, higher level of system organization.

These counterarguments essentially defend the idea that sufficiently complex and correctly organized computations can lead to understanding or consciousness. By arguing for the sufficiency of computation (under certain conditions) for understanding to emerge, these counterarguments challenge not only Searle's conclusion about the gap between syntax and semantics but also Penrose's fundamental requirement for special, non-computable physics. If complex computations can generate consciousness, then Penrose's specific physics becomes unnecessary.


Ну, что ж, подружка, как дела? (English, Russian)

Originial in Russian:



English:

Ниже есть продолжение.



Ну что ж, подружка, как дела?
Как проживаешь свои годы?
Спросила Жизнь и чаю отпила,
Взглянув в окно на непогоду...


Как я живу? Да как умею.
Люблю, грешу и в бога верю.
Скорблю, грущу и ненавижу,
А иногда и выхода не вижу.


Я Солнцу радуюсь, с дождём я плачу,
Я верую в добро, ловлю удачу.
Умею людям сострадать,
Обидчику могу я сдачу дать.


Так что ж ты хочешь от меня?
Спросила Жизнь, чуть голову склоня.
Живёшь как все и вроде всем довольна,
Так почему волнуешься невольно..?


Добавив в чашку кипятка,
Жизнь подошла ко мне поближе,
За плечи нежно обняла
И стало на душе потише.


Скажи мне, Жизнь, но только не тая,
Ведь знаешь ты с рождения меня.
Всегда ли ты со мною справедлива..
Быть может часто ты меня корила?


Быть может что то не дала.
Быть может просто не хотела
Со мною рядом быть тогда,
Когда душа моя болела..?


И заглянув в мои глаза,
Мне Жизнь с улыбкой отвечала:
Всегда любила я тебя...
Всегда тебя оберегала.


Ты без присмотра не была,
К тебе я ангела прислала..
Невидимые два крыла.
С тобою шли все время рядом.


Ты не пеняй, подружка, на меня,
Быть может я строга излишне,
Но если б таковой я не была,
Что из тебя тогда бы вышло?


Ну вот, молчишь. А значит я права.
Я для тебя всегда старалась.
Ты главное люби меня,
Ведь я твоей не буду дважды.


И долго я еще шепталась с ней,
Притихнув у нее в объятьях.
А рядом ангел напевал,
Обняв крылом, что Жизнь прекрасна!



Text in English:

Well now, my friend, how goes the day?
How are your years now lived, say?
Life asked, and took a sip of tea,
At dreary weather, plain to see.


How do I live? The best I can.
I love, I sin, believe God's plan.
I mourn, I grieve, and sometimes hate,
And often see no open gate.


I greet the Sun, with rain I cry,
Believe in good, catch luck passing by.
I know how others feel their pain,
But give an offender grief again.


So what is it you want from me?
Life asked, head tilted, soft decree.
You live like all, seem quite alright,
So why this worry, day and night?


Adding hot water to the cup,
Life moved more closely, looking up.
Then gently held my shoulders tight,
And quiet filled my soul with light.


Tell me, Life, don't hold it back,
You've known me since my life's first track.
Have you been always fair and true?
Or often scolded me, did you?


Perhaps some gift you failed to give?
Perhaps just didn't want to live
Beside me in that moment dark,
When pain my soul did sorely mark?


And looking deep within my eyes,
Life answered gently, with no lies:
I always loved you, held you dear...
Always protected you from fear.


You never lacked my watchful care,
An angel sent, beyond compare...
Two wings invisible to view,
Walked right beside you, seeing you through.


So don't you blame me now, my friend,
Perhaps I'm strict, right to the end.
But if I weren't the way you see,
What would have then become of thee?


See, now you're silent. I was right.
I always tried with all my might.
Just love me while I'm still around,
For twice, I'm nowhere to be found.


And long I whispered there with her,
Held quiet in her gentle stir.
While near, an angel softly sang,
Embraced by wings, how beauty rang!