Friday, January 24, 2025
Организация Meta GenAI в панике (Russian, English)
Все началось с Deepseek v3, который уже сделал Llama 4 устаревшей по результатам тестов. Добавило соли на рану то, что это была "неизвестная китайская компания с бюджетом на обучение в 5,5 миллионов".
Инженеры лихорадочно пытаются разобраться в Deepseek и скопировать всё, что только можно. Я не преувеличиваю.
Руководство обеспокоено тем, как оправдать огромные затраты на организацию генерирующего ИИ. Как они объяснят это лидерам компании, когда каждый "лидер" организации генерирующего ИИ зарабатывает больше, чем стоило полностью обучить Deepseek v3? А у нас десятки таких "лидеров".
Deepseek r1 сделал ситуацию ещё страшнее. Я не могу раскрыть конфиденциальную информацию, но скоро всё станет публичным.
Это должна была быть инженерно-ориентированная небольшая организация, но из-за того, что множество людей решили ухватить "импакт" и искусственно раздуть найм в организации, в итоге все проиграли.
В Израиле готовятся к обстрелам со стороны "Хезболлы", начиная с воскресенья (Hebrew, Russian)
ומיים לתום הפסקת האש בלבנון: צה”ל לא ייסוג באופן מלא ובישראל נערכים לירי של חיזבאללה החל מיום ראשון ואף לחזרה ללחימה מלאה. במקביל: שיבושים במערכות ה-GPS בצפון הארץ.
https://t.me/rakhadashot/33824
Два дня до окончания прекращения огня в Ливане: Армия обороны Израиля (ЦАХАЛ) не отступит полностью, и в Израиле готовятся к обстрелам со стороны "Хезболлы", начиная с воскресенья, а также к возможному возобновлению полномасштабных боевых действий. Одновременно наблюдаются сбои в работе систем GPS на севере страны.
Altman Is Thinking About AGI and Superintelligence in 2025 (English, Russian)
OpenAI has said that AGI “could help us elevate humanity by increasing abundance, turbocharging the global economy, and aiding in the discovery of new scientific knowledge that changes the limits of possibility.” But recent comments from Altman have been somewhat more subdued. “My guess is we will hit AGI sooner than most people in the world think and it will matter much less,” he said in December. “AGI can get built, the world mostly goes on in mostly the same way, things grow faster, but then there is a long continuation from what we call AGI to what we call superintelligence.”
In his most recent post, Altman wrote, “We are beginning to turn our aim beyond [AGI], to superintelligence in the true sense of the word. We love our current products, but we are here for the glorious future.”
He added that “superintelligent tools could massively accelerate scientific discovery and innovation well beyond what we are capable of doing on our own, and in turn massively increase abundance and prosperity.” This ability to accelerate scientific discovery is a key distinguishing factor between AGI and superintelligence, at least for Altman, who has previously written that “it is possible that we will have superintelligence in a few thousand days.”
OpenAI заявляет, что ИОИ «может помочь нам возвысить человечество, увеличив изобилие, ускорив глобальную экономику и способствуя открытию новых научных знаний, которые изменят пределы возможного». Однако недавние комментарии Альтмана были более сдержанными. «Я думаю, что мы достигнем ИОИ раньше, чем думает большинство людей в мире, и это будет иметь гораздо меньшее значение», — сказал он в декабре. «ИОИ может быть создан, мир в основном продолжит существовать так же, как и раньше, всё будет развиваться быстрее, но затем последует долгий путь от того, что мы называем ИОИ, к тому, что мы называем сверхразумом».
В своем последнем посте Альтман написал: «Мы начинаем переключать наше внимание за пределы ИОИ, к сверхразуму в истинном смысле этого слова. Мы любим наши текущие продукты, но мы здесь ради великого будущего».
Он добавил, что «сверхразумные инструменты могут значительно ускорить научные открытия и инновации, выходящие далеко за пределы наших возможностей, и, в свою очередь, значительно увеличить изобилие и процветание». Эта способность ускорять научные открытия является ключевым отличием между ИОИ и сверхразумом, по крайней мере для Альтмана, который ранее писал, что «возможно, у нас будет сверхразум через несколько тысяч дней».
There is more below.
Ниже есть продолжение.
The concept of superintelligence was popularized by philosopher Nick Bostrom, who in 2014 wrote a best-selling book—Superintelligence: Paths, Dangers, Strategies—that Altman has called “the best thing [he’s] seen on the topic.” Bostrom defines superintelligence as “any intellect that greatly exceeds the cognitive performance of humans in virtually all domains of interest”—like AGI, but more. “The first AGI will be just a point along a continuum of intelligence,” OpenAI said in a 2023 blog post. “A misaligned superintelligent AGI could cause grievous harm to the world; an autocratic regime with a decisive superintelligence lead could do that too.”https://time.com/7205596/sam-altman-superintelligence-agi/
These harms are inextricable from the idea of superintelligence, because experts do not currently know how to align these hypothetical systems with human values. Both AGI and superintelligent systems could cause harm, not necessarily due to malicious intent, but simply because humans are unable to adequately specify what they want the system to do. As professor Stuart Russell told TIME in 2024, the concern is that “what seem to be reasonable goals, such as fixing climate change, lead to catastrophic consequences, such as eliminating the human race as a way to fix climate change.” In his 2015 essay, Altman wrote that “development of superhuman machine intelligence is probably the greatest threat to the continued existence of humanity.”
OpenAI has previously written that it doesn’t know “how to reliably steer and control superhuman AI systems.” The team created to lead work on steering superintelligent systems for the safety of humans was disbanded last year, after both its co-leads left the company. At the time, one of the co-leads, Jan Leike, wrote on X that “over the past years, safety culture and processes have taken a backseat to shiny products.” At present, the company has three safety bodies: an internal safety advisory group, a safety and security committee, which is part of the board, and the deployment safety board, which has members from both OpenAI and Microsoft, and approves the deployment of models above a certain capability level. Altman has said they are working to streamline their safety processes.
Концепция сверхразума была популяризирована философом Ником Бостромом, который в 2014 году написал бестселлер «Сверхразум: Пути, опасности, стратегии», который Альтман назвал «лучшим из того, что он видел на эту тему». Бостром определяет сверхразум как «любой интеллект, который значительно превосходит когнитивные способности человека практически во всех областях интересов» — как ИОИ, но больше. «Первый ИОИ будет лишь точкой на континууме интеллекта», — заявила OpenAI в блоге 2023 года. «Несовместимый с человеческими ценностями сверхразумный ИОИ может нанести серьезный вред миру; автократический режим с решающим преимуществом в сверхразуме тоже может это сделать».
Эти риски неотделимы от идеи сверхразума, поскольку эксперты в настоящее время не знают, как согласовать эти гипотетические системы с человеческими ценностями. Как ИОИ, так и сверхразумные системы могут причинить вред, не обязательно из-за злого умысла, а просто потому, что люди не могут адекватно указать, что они хотят от системы. Как профессор Стюарт Рассел сказал TIME в 2024 году, проблема заключается в том, что «кажущиеся разумными цели, такие как решение проблемы изменения климата, могут привести к катастрофическим последствиям, таким как уничтожение человечества как способа решения проблемы изменения климата». В своем эссе 2015 года Альтман писал, что «разработка сверхчеловеческого машинного интеллекта, вероятно, является самой большой угрозой для существования человечества».
OpenAI developing AI coding agent that aims to replicate a Seniuor level engineer, which its believe is a key step to AGI / ASI (English, Russian)
https://www.reddit.com/r/singularity/comments/1i7o020/openai_developing_ai_coding_agent_that_aims_to/
OpenAI разрабатывает ИИ, который поможет ведущим программистам справляться с более сложными задачами программирования
Это будет важным шагом к созданию ИИ, который превосходит людей в «наиболее экономически значимой работе».
И это может произойти уже в этом году.
OpenAI готовится протестировать раннюю версию нового ассистента для программирования на базе ИИ.
Компания рассматривает кодинг на базе ИИ как ключевой шаг к созданию искусственного общего интеллекта (AGI).
OpenAI хочет, чтобы ChatGPT имел 1 миллиард активных пользователей ежедневно к концу 2025 года.
Эти усилия являются частью цели Сэма Альтмана, генерального директора компании, автоматизировать разработку программного обеспечения и выпустить мощный новый продукт, который решает задачи кодинга, состоящие из нескольких этапов, с целью воспроизвести работу опытного программиста, по словам человека, слышавшего его выступление о проекте.
Такой продукт обычно называется агентом, и Альтман недавно заявил, что подобная система может "войти в состав рабочей силы" уже в этом году.
Subscribe to:
Posts (Atom)