Блог им. eskalibur

// Маскируем 4 младших бита согласно документации WinAPI
int command = Message.WParam & 0xFFF0;
Вы это серьёзно ?☺☺☺
По факту с документацией WinApi можно зависнуть разбираться на месяц. Надо ещё сообразить, что бы туда залезть и начать поиск. Вначале бы искал форумы, ссылки и т.п. А тут раз и готово. Ускорение разработки в десятки и сотни раз. Уже не первый раз пользуюсь. Незаметно, всё больше и больше ИИ становится ближе. С точки зрения работы с большими объёмами информации альтернатив то нет.
Алиса от яндекс тоже дала такой же выхлоп(ну почти также), хотя от гугла инфа подошла больше, позволила сразу предвосхитить новые сложности.
Написание софта и качество софта ускорилось и улучшилось в сотни раз, наверное стоит ожидает увеличение стоимости электричества также в разы.
Если вы имели ввидул под гуглпрограмистами обучающихся самостоятельно кулибиных, то этот сарказм — смешон. Даже Дуров не учился на кодера, тоже по вашему «гуглпрограмист»? Знаком с програмерами vk, также малок кто учился этому, всё постигали в работе. Те же «гуглпрограмисты».
Если локальная модель, то gpt-oss:20b через Ollama, на мой взгляд, самая лучшая, занимает 12,1 Гб видеопамяти.
В каких-то сценариях использования, типах задач LLM дают космический прирост эффективности. В каких-то поменьше, в каких-то проигрывают просто человеку. То же программирование взять, написать какую-то функцию где понятно что на входе, что на выходе или понятна внутренняя логика или например, с API синтегрироваться — здесь LLM в разы повышает эффективность. А вот если делать что-то большое и сложное — тут уже не так однозначно, если делать не правильно, может получиться, что вместо времени на кодинг и продумывание архитектуры (как раньше) будешь тратить время на итерирование «ошибка — исправь» с LLM и сложность будет выходить из под контроля.
В общем, в умелых руках и правильных сценариях LLM — мощь.