Годами облачные сервисы Google были на третьем месте после Microsoft и Amazon, а затем появился генеративный ИИ. Хотя генеральный директор Google Cloud Томас Куриан не отдаёт должное недавней революции ИИ за то, что его подразделение показало 30% квартальный рост выручки и сократило разрыв, это, безусловно, важный фактор. В интервью на Big Technology Podcast в среду, когда Google проводит свое ежегодное мероприятие Google Cloud Next в Лас-Вегасе, Куриан обосновал предложение Google.
По словам Куриана, Google имеет в своём распоряжении DeepMind, по-прежнему предлагает более 200 других моделей, включая DeepSeek, Llama и Mistral, и активно использует открытый исходный код. «Мы основываемся на том, чего хотят клиенты, — сказал он. — Мы отслеживаем, что находится в таблицах лидеров, что получает одобрение разработчиков, и размещаем это на платформе».
В откровенном разговоре, посвященном конкуренции Google, тому, как компании внедряют генеративный ИИ на практике, и, конечно же, тому, как тарифы могут повлиять на его бизнес, Куриан рассказал о том, как текущий момент меняет конкурентный баланс в облачных технологиях и что может произойти дальше. Вы можете прочитать вопросы и ответы ниже, отредактированные для большей краткости и ясности, а также прослушать полный эпизод на Apple Podcasts, Spotify или в вашем любимом приложении для подкастов. Удачи!!!
Алекс Кантровиц: Google Cloud Platform стремительно развивается, темпы роста в 30% в квартал в последнее время. Является ли это следствием ИИ?
Томас Куриан: ИИ определённо способствовал принятию различных частей нашей платформы. Когда люди приходят к ИИ, некоторые говорят: «Я хочу провести супермасштабное обучение или вывод собственной модели». Есть целый ряд людей, которые этим занимаются, начиная с компаний-разработчиков фундаментальных моделей, будь то Anthropic, Midjourney или другие. Кроме того, традиционные компании, такие как Ford, используют наши чипы и систему TPU (Tensor Processing Unit) для моделирования воздушного потока и аэродинамики.
Один набор клиентов приходит за инфраструктурой ИИ, второй — за нашими моделями, третий — за готовыми решениями, такими как агенты для обслуживания клиентов или кибербезопасности. В зависимости от потребностей, клиенты выбирают разные уровни нашего стека.
Алекс: Насколько важен ИИ для конкурентоспособности Google Cloud в целом?
Куриан: Это будет важно в будущем. Мы гордимся тем, что у нас более двух миллионов разработчиков, ежедневно создающих что-то на нашей платформе. Gemini Pro 2.5 — ведущая модель в мире, Gemini Flash имеет лучшее соотношение цены и производительности, а Imagen и Veo лидируют в обработке медиа.
Алекс: Amazon утверждает, что даёт клиентам больше выбора моделей, включая Anthropic. Google же может подталкивать к использованию собственных моделей DeepMind. Как вы на это отвечаете?
Куриан: Мы предлагаем более 200 моделей, включая Llama, Mistral и DeepSeek. Мы отслеживаем популярность среди разработчиков и добавляем востребованные решения. Единственная модель, которую мы пока не предлагаем, — OpenAI, но это их выбор.
Алекс: Microsoft заявляет, что их партнёрство с OpenAI даёт им преимущество. Что вы думаете?
Куриан: OpenAI проделали отличную работу, но насколько в этом заслуга Microsoft, кроме предоставления GPU, покажет время. У нас же DeepMind интегрирован в Google, что позволяет быстро внедрять и улучшать модели на основе обратной связи от сервисов вроде Поиска и YouTube.
Алекс: Мустафа Сулейман (Microsoft AI) говорит, что без миллиардных затрат на обучение модели Google просто копируют их подход, но медленнее. Ваш ответ?
Куриан: В долгосрочной перспективе ключевая стоимость — это вывод, а не обучение. Наши модели, такие как Gemini Flash и Pro, демонстрируют отличное соотношение цены и производительности. Люди путают затраты на исследования с обучением — мы уверены в своей эффективности.
Алекс: Можно ли ещё улучшить модели за счет масштабирования предобучения?
Куриан: Да, но закон убывающей отдачи уже действует. Мы не на пределе, но рост будет не таким значительным, как раньше.
Алекс: Как клиенты используют новые возможности рассуждения в моделях?
Куриан: Например, в финансах модели анализируют рынки, обобщают данные и делают выводы. Туристические сервисы строят маршруты с учётом погоды и предпочтений. Раньше LLM давали одношаговые ответы с риском галлюцинаций, теперь же они оценивают варианты и объясняют логику.
Алекс: Дженсен Хуанг (NVIDIA) говорит, что рассуждения в 100 раз дороже. Это так?
Куриан: Мы оптимизируем затраты на вывод. Наши TPU и архитектура моделей позволяют оставаться конкурентоспособными.
Комментариев нет:
Отправить комментарий