
Google DeepMind розробляє комп’ютерний вказівник із ШІ на основі Gemini — компанія має намір здійснити революцію в технології, яка практично не змінювалася понад пів століття.
«Ми вивчаємо новітні можливості на основі ШІ, котрі допоможуть вказівнику не тільки визначати, на що він вказує, а й чому це суттєво для користувача», — зазначено в блозі компанії.
Цей проєкт усуває поширену проблему: звичайний ШІ-інструмент функціонує в окремому вікні, і користувачеві необхідно переміщувати туди свій матеріал.
«Ми прагнемо до протилежного: інтуїтивно зрозумілого штучного інтелекту, який взаємодіє з користувачами у всіх їхніх інструментах, не порушуючи робочий процес», — зауважили в компанії.
Чотири засади ШІ-вказівника
У Google DeepMind сформулювали чотири засади, які транслюють передачу контексту та намірів від користувача до комп’ютера і замінюють текстові підказки більш інтуїтивними способами взаємодії.
Збереження робочого процесу
ШІ-функції мають діяти в усіх програмах, тому прототип вказівника від Google DeepMind доступний скрізь, де працює користувач. Наприклад, можна навести курсор на PDF-документ і запросити стислий висновок у формі переліку, щоб вставити його в електронний лист.
Інший приклад — навести вказівник на таблицю зі статистичними відомостями та попросити створити секторну діаграму.
Покажи та розкажи
Нинішні нейромережі потребують чітких інструкцій, і для отримання якісної відповіді користувачу доводиться складати детальний запит. ШІ-вказівник полегшує цей процес: він фіксує візуальний і семантичний контекст, дозволяючи моделі «побачити» і зрозуміти, що саме важливо.
В експериментальній системі Google DeepMind достатньо вказати на абзац, частину зображення чи блок коду — і LLM зрозуміє, яка саме потрібна допомога.
Сила слів «це» і «те»
У звичайному спілкуванні люди рідко вдаються до довгих і докладних фраз. Вони кажуть: «полагодити це», «перемістити це сюди» або «що це означає», одночасно спираючись на жести та спільний контекст.
«ШІ-система, що здатна розуміти це поєднання контексту, жестів і мовлення, дозволить користувачам формулювати складні запити природним і лаконічним способом без використання важких підказок», — зазначено в блозі Google DeepMind.
Пікселі для взаємодії
Десятиліттями комп’ютери відстежували лише напрямок погляду. ШІ здатний зрозуміти, на що саме вказує користувач, і перетворити пікселі на структуровані об’єкти для негайної взаємодії.
«Фотографія з нотатками перетворюється на інтерактивний список завдань, стоп-кадр із відео про подорож — на посилання для резервування столика в тому чудовому ресторані», — зауважили в Google DeepMind.
Втілення
Google DeepMind впроваджує ці засади в Chrome і новому інтерфейсі для ноутбуків Googlebook.
«Відтепер замість введення складних запитів ви можете використати вказівник, щоб запитати Gemini в Chrome про ту частину вебсторінки, яка вас цікавить», — зазначено в блозі.
Наприклад, можна вибрати декілька товарів на сторінці та попросити порівняти їх або вказати місце, де слід візуалізувати новий диван у вітальні.
Найближчим часом компанія запустить Magic Pointer у Googlebook. Функція дозволить застосовувати Gemini одним дотиком пальця.
Googlebook
Google презентувала «нову категорію ноутбуків» на основі можливостей Gemini, що об’єднує Android і ChromeOS.
«Понад 15 років тому ми представили Chromebook — ноутбук, створений для світу, де головне — хмарні технології. Сьогодні, під час переходу від ОС до інтелектуальної системи, ми бачимо можливість знову переосмислити концепцію ноутбуків», — йдеться в анонсі.
Googlebook розроблені для Gemini Intelligence і нового ШІ-вказівника. Пристрої отримали функцію «Створити віджет» із підтримкою голосових команд.
Gemini може шукати інформацію в інтернеті або під’єднуватися до застосунків Google на кшталт Gmail і «Календар» для створення єдиної персоналізованої панелі управління.
Інструмент побудований на технологічному стеку Android, що забезпечує безперебійну роботу з декількома пристроями: функція «Швидкий доступ» дозволяє переглядати, шукати та вставляти файли з телефона на ноутбук без ручного переміщення.
Перші Googlebook створюються спільно з Acer, ASUS, Dell, HP і Lenovo.
Gemini Intelligence
Gemini Intelligence — набір ШІ-функцій для Android-пристроїв. Влітку 2026 року вони з’являться спочатку на Samsung Galaxy та Google Pixel, а згодом — на інших гаджетах.
«Ця система поєднує першокласне апаратне забезпечення та інноваційне ПЗ, щоб допомагати вам завжди бути на крок попереду, проактивно розв’язуючи завдання впродовж дня. Водночас забезпечуються конфіденційність даних і повний контроль над ними», — йдеться в анонсі.
Деякі агентні можливості Gemini вже показали на початку 2026 року на смартфонах Samsung — наприклад, замовлення їжі чи таксі. Незабаром помічник зможе виконувати складніші завдання: достатньо сфотографувати брошуру туру, і бот знайде схожі варіанти на Expedia.
У Chrome ШІ-асистент допоможе знаходити, узагальнювати та порівнювати контент на різних сторінках. Функція Rambler на клавіатурі Gboard дозволить надиктувати текст, потім виділить важливі уривки й збере їх у зв’язне повідомлення без зайвих слів і повторень.
Нагадаємо, у березні Google розширила ШІ-можливості в Docs, Sheets, Slides і Drive.
