Комментарии пользователя AP
Валерий Калачев, забудьте вы эти благоглупости про «кружок Гайдара». Эльвира жесткая и прожженная дама, которая очень четко выполняет указания сверху и во многом на ее усилиях и держится нынешняя власть. Хотите инфляцию для развития экономики? А что будет при этом с рублевыми банковскими кредитами, обесцениваться ведь начнут! Эдак дойдет до того, что всю ипотеку с месячной зарплаты смогут выплатить. А все банки в нашей стране в той или иной мере принадлежат уже тем кому надо. И эти кому надо никогда не допустят чтобы высокая инфляция уничтожила их капиталы ради какой-то прости господи экономики. Поэтому приватизированные элитами самые прибыльные отрасли — банковская, сырьевая и строительная у нас всегда в шоколаде. А вот всякие производства, образования и здравоохранения в другой субстанции, похожей на шоколад только цветом.
Набиулина конечно может по ночам и достает из под подушки фотку Навального и горько заливается слезами, но утром бодро и энергично делает все для поддержки консенсуса внутри нынешних элит и их благосостояния и делает это для них очень качественно. За что ее кандидатура и выдвигается сами-знаете-кем все снова и снова.
Carlson, большинство использует простую логику. Если надвигается большая война, то она 100% будет ядерной. Если даже с Украиной все держится на грани применения ТЯО, то в случае конфликта с ЕС или США вероятность очень быстрого перерастания его в обмен ядерными ударами крайне велика. Либо сторона, решившая начать агрессию ударит первой, чтобы увеличить шансы на победу, либо проигрывающая сторона, для элит которой проигрыш будет экзистенциальным вопросом применит как «оружие последнего шанса».
В этих условиях совершенно неважно, сколько офис-менеджеров загонят на заводы точить снаряды, никому эти снаряды после вылетов МБР с каждой из сторон уже не понадобятся.
А вот если прямого военного столкновения все же удастся избежать, то шанс «повторить подвиг народов СССР» и профукать собственной государство от проблем с гражданской экономикой и зажимания гражданских свобод — более чем ненулевой.
Только вот генералы всегда готовятся к прошедшей войне :(
Андрей Свечков, проблема в том, что это нужно было делать раньше. За март и начала апреля большинство стран уже практически израсходовали стратегические запасы нефти, при этом как раз КНР имеет наибольшие стратегические резервы и альтернативу в виде поставок из РФ. При этом блокада Ормуза еще и со стороны США означает его полное перекрытие и резкий рост стоимости нефти на рынках, т.к. возможности компенсации стратегическими резервами фактически уже утрачены. Иран давно привык жить под санкциями, КНР имеет громадные резервы и альтернативные поставки, а вот американскому избирателю придется увидеть очень веселые ценники на заправках уже очень скоро.
Но думаю до этого не дойдет, Дони как всегда дня через 3 зассыт, как он это уже многократно делал за последние месяцы и сдаст назад.
У шин грузовых автомобилей есть замечательная особенность — время от времени взрываться. Когда взрывается одна из передних шин все зависит от реакции водителя, но даже он не всегда спасает от аварии с тяжелыми последствиями. А вот теперь представим взрыв переднего колеса у беспилотного грузовика, где скорее всего все равно будет дежурный контролер на водительском месте, только он в отличие от реального водителя будет залипать в это время в Интернете… Ну так хоть какой-то шанс есть, а если и контролера не будет.
Все фуфлогонство про беспилотные грузовики в условиях РФ это банальный попил бюджета. Мода на такие грузовики пошла из США, где из-за того что железные дороги принадлежат частникам пошел нездоровый перекос в сторону автоперевозок. В РФ такой проблемы нет, но кто же удержится от такого сладкого попила, да еще и в «мировых тенденциях» :)
Prophetic, эээээ… давайте не путать. Создатель термина «vibe-coding» Андрей Карпатый описывает его как полный сознательный уход от кода, Принципиальное разграничение сформулировано очень чётко: вайб-кодинг — это «написание ПО с LLM без проверки генерируемого кода».
Ничего серьезного и стабильно работающего таким образом без неограниченного доступа к исследовательским аккаунтам без ограничений и на самых мощных LLM — написать невозможно. То же, чем занимается основная масса тех кто использует LLM при программировании — это стандартная инженерная разработка с пониманием ее ограничений, постоянным контролем кода и ошибок, рефакторингом и прочими прелестями, где LLM в лучшем случае выступает в роли джуна-кодера, который наизусть вызубрил синтаксис ЯП и часто используемые либы, но постоянно глючит в вопросах сложной архитектуры приложения.
Так что вся шумиха вокруг «вайб-кодинга» это всего лишь маркетинговый хайп, которым поколение нынешних AI-гуру владеет в совершенстве. На деле же, реальные результаты при программировании с использованием LLM достигаются при использовании специфичных инженерных практик и навыков, которые никаким боком к классическому определению «вайб-кодинга» не пристегнуть.
Мальчик buybuy, с моей точки зрения современные LLM принципиально не способны полностью корректно обработать промпт объемом даже в одну страницу стандартного текста. При попытке его реализации они обязательно либо что-то пропустят, либо допустят ошибки. Поэтому постановка задачи при работе с ними стоит в правильном разделении исходной задачи на части таким образом, чтобы промпт для каждой части укладывался максимум в десяток предложений. Лучше меньше.
Программистам это обычно дается легче, но даже те кто изначально не был связан с алгоритмизацией процессов могут легко сделать это сами с помощью той же LLM просто набив свой типичный страничный промпт и предложив модели не генерировать код, а разбить предложенную задачу на отдельные модули, которые можно отлаживать и тестировать независимо. Когда LLM предложит свой вариант подобного разбиения, то он далеко не всегда бывает оптимальным, но даже в этом случае легче предложить после анализа свой вариант модульности и начинать с него.
Это экономит ОЧЕНЬ много времени, т.к. любая LLM забитая доверху студенческим говнокодом с GitHub по умолчанию рвется сделать все и сразу, создавая монструозный код в несколько тысяч строк.
Меня уже давно достало писать MD объемом с небольшую брошюру, поэтому использую несколько другую тактику -
1. Изначально делаю любое приложение модульным с максимально независимыми модулями. Объем кода каждого из модулей не должен превышать 500-700 строк (это максимум того чтобы доступные обычному юзеру LLM могли оперировать сразу кодом всего модуля не теряя при каждом рефакторинге часть функционала).
2. После того как модуль завершен и прошел мое предварительное тестирование — заставляю LLM написать для него набор юнит-тестов. После каждого изменения кода модуля — прогон всего набора.
3. Для каждого модуля после значимого рефакторинга заставляю LLM написать или переписать MD файл с описанием основных функций и возможностей модуля.
4. В зависимости от свежести датасета использующегося при обучении модели вид кода, предлагаемые либы и тот стек на котором модель пишет лучше всего — может крайне сильно отличаться. Это нужно всегда учитывать если работаешь с разными моделями.
В целом — задолбывает весьма сильно, реально в несколько раз сложнее чем проверять код за середнячком-джуном. Особенно неприятно то, что внешне код может выглядеть красиво форматированным и структурированным, с правильным неймингом переменных, что снижает бдительность при проверке, а при этом содержать абсолютно грубейший ляп, которого никогда не допустит даже начинающий прогер. Вот вылавливание подобного основное время и занимает.
В целом — брешут вам нагло про «вайб-кодинг», особенно когда эти сказки рассказывают люди имеющие неограниченный доступ к ведущим моделям на исследовательских акках, дающие уровень возможностей еще долго не будущий доступным простым смертным платящим за каждый токен.
Ну и да — основная кодовая база в датсетах на которой обоучались модели — это GitHub и доступное в Интернете, уровень кода где мягко говоря в 80% случаев далеко не очень. Реальный код коммерческого софта чаще всего закрыт и у моделей было мало возможностей получить примеры реально качественного кода, отсюда и многие проблемы.