Рид Хоффман — сооснователь LinkedIn, ранний инвестор OpenAI, венчурный партнёр Greylock Partners — делится пятью предсказаниями о том, куда движется искусственный интеллект в 2026 году.
Хоффман считает кодинг той категорией, которую AI-лаборатории должны освоить первой. Способности, которые делают кодинг-агентов сильными — планирование, параллельное выполнение, оркестрация сложных задач — это те же паттерны, которые нужны для любой интеллектуальной работы.
В 2025 году появились инструменты вроде Claude Code и Codex. Но ими пользовалась узкая группа. Хоффман видит 2026-й как точку перелома: агенты выйдут за пределы кодинга во все остальные сферы.
Хоффман ожидает, что 2026-й будет похож на «скачки» — OpenAI и Anthropic будут меняться местами на протяжении всего года.
Он хвалит Anthropic Opus 4.5 за то, что модель достигает результатов «при меньших затратах капитала и вычислений». Но более мелкие игроки вроде Replit и Lovable могут преподнести сюрпризы.
К концу 2026 года успешные компании должны «записывать каждую встречу и запускать агентов на результатах». Переход от пилотных проектов к системному внедрению агентов Хоффман сравнивает с автомобильной революцией.
Организации, которые проигнорируют эту трансформацию, столкнутся с устареванием. Хоффман проводит прямую линию: не внедрил агентов системно — остался позади.
Даже когда AI станет мощнее для тех, кто им пользуется, Хоффман предсказывает, что публичная дискуссия станет более негативной. Страх, дезинформация и политические интересы будут искажать разговор.
Разрыв между тем, что AI реально делает для ежедневных пользователей, и тем, как его воспринимают те, кто не пользуется — будет расти. Это создаёт и вызов, и возможность для тех, кто умеет объяснять.
Хоффман называет биологию самой недооценённой категорией в AI. Ключевой инсайт: биологические системы — молекулы, белки, метаболические пути — можно рассматривать как «языковые системы», которые AI способен научиться читать и писать.
Это расширение AI от человеческого языка и кода к принципиально иным доменам. Хоффман сооснователь Manus AI — стартапа по открытию лекарств, построенного на этом тезисе.
| Термин | Определение |
|---|---|
| Агентный AI | AI-системы, способные автономно планировать, выполнять многошаговые задачи и принимать решения без постоянного участия человека. |
| Оркестрация | Навык управления несколькими AI-агентами, работающими параллельно над разными аспектами задачи. Хоффман называет это главным навыком 2026 года. |
| Claude Code | Инструмент Anthropic для работы с кодом через командную строку. Пример агентного подхода: автономно пишет, тестирует и отлаживает код. |
| Opus 4.5 | Языковая модель Anthropic, которую Хоффман хвалит за высокие результаты при меньших затратах капитала и вычислительных ресурсов. |
| AGI | Artificial General Intelligence — AI с человеческим уровнем рассуждений в нескольких доменах. Хоффман определяет: «один человек с возможностями команды». |
| Интеллект. труд | Профессиональная работа, связанная с обработкой информации: написание текстов, аналитика, исследования, стратегия, дизайн. |
| Законы масштабирования | Принцип, по которому качество AI-моделей предсказуемо растёт при увеличении данных, вычислений и параметров. |
| Manus AI | Стартап по открытию лекарств, сооснованный Ридом Хоффманом. Применяет техники языковых моделей к биологическим системам. |
| Фундаментальная модель | Большая AI-модель, обученная на широком массиве данных, которую можно адаптировать к разным задачам. |
| Биологический язык | Концепция Хоффмана: молекулярные структуры и биологические пути как языковые системы, которые AI может научиться обрабатывать. |
Этот интерактивный урок создан с глубоким уважением к Риду Хоффману и команде Every. Мы не претендуем на авторство оригинальных идей. Наша цель — помочь лучшим идеям распространяться дальше, преодолевая языковые и форматные барьеры.
Это не коммерческий продукт. Здесь нет рекламы, подписок и платных функций. Только образование.
Оригинальный контент: Reid Hoffman Makes Five Predictions About AI In 2026 — AI & I Podcast, Every
Полный транскрипт: every.to