Google 的 OS 级 AI 布局:Gemini Intelligence、AI 指针与 Googlebook
Google 的 OS 级 AI 布局:Gemini Intelligence、AI 指针与 Googlebook
Google 在 5 月 12 日的 Android Show(I/O 特别版)上发布了一系列产品级 AI 更新,核心叙事非常清晰:AI 正在从聊天窗口走进操作系统本身。
这场发布的核心是 Gemini Intelligence,一个面向 Android 设备的 AI 层。Google CEO @sundarpichai 表示:
Today at the @Android Show (I/O edition) we announced Gemini Intelligence - bringing the best of Gemini to our most advanced devices. Automate multi-step tasks across apps and Chrome, fill out forms in a single tap, turn spoken thoughts into polished text with Rambler, build custom widgets & loads more.
Gemini Intelligence 的能力覆盖了跨应用和 Chrome 的多步骤任务自动化、一键填表、语音转文字润色(Rambler)以及自定义 Widget 构建——这些能力不再是独立的"AI 助手"功能,而是深度嵌入到手机操作系统的各个层面。
与 Gemini Intelligence 配套的是 Googlebook——Google 推出的首款原生 Gemini 笔记本。@Google 介绍道:
Introducing Googlebook, the first laptop designed for Gemini Intelligence. It's crafted for heavyweight performance, built with Gemini at the core and perfectly synced with your Android phone. Coming this fall.
Googlebook 将 Gemini 置于核心,并与 Android 手机实现无缝同步,标志着 Google 在硬件层面将 AI 作为操作系统的原生组件来设计。
另一个引人注目的展示来自 Google DeepMind:AI 驱动的鼠标指针。@GoogleDeepMind 展示了实验性交互方式:
We're reimagining a 50-year-old interface - the mouse pointer - with AI. These experimental demos show how people can intuitively direct Gemini on their screens using motion, speech, and natural shorthand to get things done.
这个 demo 重新想象了存在 50 年的鼠标指针——用户可以通过动作、语音和自然简写指令,在屏幕上直观地引导 Gemini 执行操作,而不需要精确的点击和菜单导航。
这三项发布指向同一个方向:Google 正在把 AI 从应用层下沉为操作系统层的基础设施。 AI 不再是打开一个对话框才出现的工具,而是附着在鼠标、键盘、文件系统和跨应用流程中的原生智能层。这与 Meta 同日发布的 Muse Spark 语音助手形成呼应——后者支持打断、语言切换和实时摄像交互——表明各大平台正在同步推进 AI 从"聊天应用"向"系统级智能"的转型。
🏢 企业动态
本作品采用《CC 协议》,转载必须注明作者和本文链接
关于 LearnKu