Google представила на Google I/O 2025 новую линейку очков на базе Android XR. Возможно, вы помните, что Google Glass появились ещё в 2013 году. Тогда проект провалился — очки оказались дорогими, неудобными, да и в жизни толком не пригодились.
Почему же Google решилась на вторую попытку именно сейчас?
Официальная причина — подешевели компоненты, технологии стали лучше. Но мне кажется, есть причина куда более важная: сегодня у ИИ-компаний заканчиваются данные для обучения нейросетей. Они уже просят правительство разрешить читать/смотреть весь контент (даже под авторскими правами) и готовы платить до 4 долларов за минуту неизданного видео! И Очки — идеальный инструмент, чтобы собирать такие данные прямо из нашей жизни: камеры, микрофоны, динамик, дисплей — ассистент “видит” и “слышит” всё вокруг.
Т.о. главным “потребителем” этих данных становится не человек, а искусственный интеллект.
Нет, это не теория заговора, а просто бизнес. Google пользуется своим преимуществом перед OpenAI: через очки, смартфоны и YouTube она может получить доступ к миллионам сценариев, которые никто ещё не записывал. И мы ему заплатим за это, а не он нам. )
📌 Что в ролике:
✔ Как автоматически классифицировать строки в таблице. Сделал на примере покупок во ВкусВилл
✔ Пример промпта для достаточно точной разметки. Там он простой, но можно гораздо больше накрутить
✔ Экономия времени и снижение ошибок
(Звука нет, но, надеюсь, там все понятно сделал)
Если будут вопросы, спрашивайте в комментариях.
ссылка на rutube
Если вам интересны практические примеры применения LLM (DeepSeek, ChatGPT и пр.) для работы и жизни — подписывайтесь на мой тг-канал