Блог им. A2format

Полоса в New York Times об автопилоте Tesla или как заработать 10 000$.

Полностраничная реклама в воскресной газете New York Times была нацелена на программное обеспечение Tesla «Full Self-Driving», называя его «худшим программным обеспечением, когда-либо проданным компанией из списка Fortune 500» и предлагая 10 000 долларов — ту же цену, что и само программное обеспечение, для первого лица, кто мог бы назвать «еще один коммерческий продукт от компании из списка Fortune 500, в котором каждые 8 ​​минут происходит критический сбой».

Полоса в New York Times об автопилоте Tesla или как заработать 10 000$.

Примечание: не надо мне втирать, что я против электромобилей. Я двумя руками за электромобили. Мне просто объективность больше нравится.

Вопрос не к том, как хорош или плох «полный» автопилот Tesla. Вопрос в том, что Маск вводит пользователей в заблуждение пиаря «полный автопилот», который таковым не является даже и близко. Полный автопилот это 4-й, а лучше 5-й уровень автономности, тогда как у Теслы 1-й, и только недавно затянули за уши на 2-й уровень автономности (некоторые конкуренты уже обошли по автопилотам Теслу, но Маск, почему-то об этом ни слова). И да, автопилот Теслы со 2-м уровнем автономности в регламентированных ситуация применения автопилота лучше человека в 6,5 раз (меньше ДТП), но Маск прожужжал фанатам уши, и те включают его где захотят, ведь им Маск пообещал «полный автопилот», а вот «полный автопилот» в нерегламентированных ситуациях использовать нельзя, и даже в тех режимах, где можно — он и там косячит (хоть и меньше человека).


Фанаты Маска не смогут прочитать текст серым цветом, у них после первого абзаца пойдет пена из ушей, и они побегут писать гневные комментарии, что я, якобы против электромобилей. А, и рассказывать, что я, якобы, зашортил TSLA. Бабки-гадалки, наверное, и то чаще угадывают, чем фанаты Теслы.


Рекламу разместила The Dawn Project, недавно основанная организация, стремящаяся запретить использование небезопасного программного обеспечения в критически важных для безопасности системах, которые могут стать мишенью для хакеров военного образца, в рамках кампании по удалению Tesla Full Self-Driving (FSD) из публичного доступа, пока у него не будет «в 1000 раз меньше критических неисправностей».

Основатель правозащитной группы Дэн О'Дауд также является генеральным директором Green Hill Software, компании, которая создает операционные системы и инструменты программирования для встраиваемых систем безопасности. На выставке CES компания заявила, что автомобиль BMW iX использует свою ОС реального времени и другое программное обеспечение для обеспечения безопасности, а также объявила о доступности своего нового беспроводного программного продукта и услуг передачи данных для автомобильных электронных систем.

Несмотря на потенциальную предвзятость основателя The Dawn Project, бета-версия программного обеспечения Tesla FSD, усовершенствованной системы помощи водителю, к которой владельцы Tesla могут получить доступ для управления некоторыми функциями вождения на городских улицах, в последние месяцы подверглась тщательному анализу после серии видеороликов на YouTube, которые показали недостатки в системе стали вирусными.

Объявление NYT появилось всего через несколько дней после того, как Департамент транспортных средств Калифорнии сообщил Tesla, что будет «пересматривать» свое мнение о том, что программа испытаний компании, в которой участвуют потребители, а не профессиональные операторы безопасности, не подпадает под действие правил автономных транспортных средств департамента. Калифорнийское DMV регулирует тестирование автономного вождения в штате и требует от других компаний, таких как Waymo и Cruise, которые разрабатывают, тестируют и планируют развертывание роботакси, сообщать о авариях и системных сбоях, называемых «отключениями». Tesla никогда не публиковала эти отчеты.

С тех пор генеральный директор Tesla Илон Маск расплывчато ответил в Twitter, утверждая, что FSD Tesla не привел к несчастным случаям или травмам с момента его запуска. Национальное управление безопасности дорожного движения США (NHTSA) расследует сообщение владельца Tesla Model Y, который сообщил, что его автомобиль выехал на неправильную полосу при повороте налево в режиме FSD, в результате чего автомобиль был сбит другим водителем.

Даже если это была первая авария FSD, автопилот Tesla, ADAS автопроизводителя, который входит в стандартную комплектацию автомобилей, участвовал примерно в дюжине аварий.

Наряду с рекламой в NYT, The Dawn Project опубликовала проверку фактов своих заявлений, ссылаясь на собственный анализ безопасности FSD, в котором изучались данные из 21 видео на YouTube, общее время в пути которых составило семь часов.

Проанализированные видео включали бета-версии 8 (выпущенные в декабре 2020 г.) и 10 (выпущенные в сентябре 2021 г.), и в исследовании избегались видео со значительно положительными или отрицательными заголовками, чтобы уменьшить предвзятость. Каждое видео было оценено в соответствии с оценкой эффективности водителя DMV Калифорнии, которую должны пройти водители, чтобы получить водительские права. Чтобы сдать экзамен на вождение, водители в Калифорнии должны иметь не более 15 ошибок при маневрировании, таких как неиспользование сигналов поворота при смене полосы движения или соблюдение безопасного расстояния от других движущихся транспортных средств, и не иметь критических ошибок вождения, таких как авария или проезд на красный свет.

Исследование показало, что FSD v10 совершает 16 ошибок при подсчете очков в среднем менее чем за час и критическую ошибку вождения примерно каждые 8 ​​минут. Анализ показал, что количество ошибок за девять месяцев между v8 и v10 уменьшилось, но при нынешних темпах улучшения «потребуется еще от 7,8 лет (по данным AAA) до 8,8 лет (по данным Бюро транспорта), чтобы достичь уровня аварийности человека-водителя».

В рекламе Dawn Project содержатся некоторые смелые заявления, которые следует воспринимать с долей скептицизма, особенно потому, что размер выборки слишком мал, чтобы его можно было воспринимать всерьез со статистической точки зрения. Если, однако, семь часов отснятого материала действительно представляют средний привод FSD, результаты могут свидетельствовать о более серьезной проблеме с программным обеспечением Tesla FSD и касаться более широкого вопроса о том, следует ли разрешать Tesla тестировать это программное обеспечение на дорогах общего пользования. без регулирования.

«Мы не подписывались на то, чтобы наши семьи были манекенами для краш-тестов тысяч автомобилей Tesla, которые ездят по дорогам общего пользования…», — говорится в объявлении.

Федеральные регулирующие органы начали принимать некоторые меры против Tesla и ее бета-версий программных систем Autopilot и FSD.

В октябре НАБДД направило автопроизводителю два письма, в которых говорилось об использовании им соглашений о неразглашении для владельцев, получивших ранний доступ к бета-версии FSD, а также о решении компании использовать беспроводные обновления программного обеспечения для устранения проблемы в стандартная система автопилота, которая должна была быть отзывом. Кроме того, летом Consumer Reports опубликовала заявление, в котором говорилось, что обновление программного обеспечения FSD версии 9 недостаточно безопасно для дорог общего пользования, и что оно будет независимо тестировать программное обеспечение. На прошлой неделе организация опубликовала результаты своих испытаний, которые показали, что «система наблюдения за водителем на основе камеры Tesla не может удерживать внимание водителя на дороге». CR обнаружил, что BlueCruise от Ford, с другой стороны, выдает предупреждения, когда глаза водителя отвлекаются.

С тех пор Tesla выпустила множество различных версий своего программного обеспечения v10 — 10.9 должна выйти со дня на день, а версия 11 с «единым программным стеком для города/шоссе» и «множеством других архитектурных обновлений» выйдет в феврале, по словам генерального директора Илона Маска.

Обзоры последней версии 10.8 искажены: некоторые онлайн-комментаторы говорят, что она намного более плавная, а многие другие заявляют, что вообще не чувствуют себя уверенно в использовании этой технологии. Тема обзора новейшей версии FSD на странице субреддита Tesla Motors показывает, что владельцы делятся жалобами на программное обеспечение, а один даже пишет: «Определенно еще не готов для широкой публики…»

Другой комментатор сказал, что машине потребовалось слишком много времени, чтобы повернуть направо на «совершенно пустую, прямую дорогу… Затем ей пришлось повернуть налево, и она продолжала колебаться без причины, блокируя встречную полосу, а затем внезапно ускорилась, как только выехала на встречную полосу. следующую улицу, после чего последовало столь же внезапное замедление, потому что он изменил свое мнение о скорости и теперь думал, что дорога со скоростью 45 миль в час — это 25 миль в час».

Водитель сказал, что в конечном итоге ему пришлось полностью отключиться, потому что система полностью игнорировала предстоящий левый поворот, который должен был произойти на стандартном перекрестке «с огнями и хорошей видимостью во всех направлениях и без другого движения».

Кампания Dawn Project подчеркивает предупреждение Tesla о том, что ее FSD «может сделать что-то не так в самый неподходящий момент».

«Как можно терпеть критически важный для безопасности продукт на рынке, который может сделать что-то не так в самый неподходящий момент», — заявила правозащитная группа. «Разве это не определение дефекта? Полное беспилотное вождение должно быть немедленно удалено с наших дорог».

Ни Tesla, ни The Dawn Project не удалось получить комментарии.

techcrunch.com/2022/01/17/new-york-times-ad-warns-against-teslas-full-self-driving/



  • обсудить на форуме:
  • Tesla
24 комментария
Смешно, чувак обиделся, что его обошли и запилил целый сайт, чтобы обосрать автопилот от Теслы. Чтобы понять уровень чувака, зайдите на сайт его компании — https://www.ghs.com/, это ж 90-е годы!
avatar
Вася Пражкин, неясно, при чем тут сайт.
Про автопилот Теслы что-то необъективное написано?
avatar
Mityan, Чушь полная, от начала до конца. Да и автор не разобрался в теме, какие-то свои мысли выдуманные пишет. Реально сейчас FSD у Теслы в бета-режиме, насколько я помню, 60 тыс. водителей катают FSD. Если б там было так все плохо, как заявляет автор и тот чел из ghs, то Теслу бы давно уже засудили и завалили миллионными исками, в Америке с этим жестко. Например, как было у Uber, с которой стрясла денег дочь женщины, сбитой тестовым автопилотом.
avatar
Вася Пражкин, это только ваши предположения — если бы да кабы.
От начала до конца приведенный текст не может быть чушью.
Что конкретно чушь?
avatar
Вася Пражкин, 
Теслу бы давно уже засудили и завалили миллионными исками, в Америке с этим жестко. 

Американские полицейские подали на Tesla в суд из-за аварии с участием пьяного водителя и автопилота

В США водитель Tesla впервые предстанет перед судом за ДТП со смертельным исходом, в котором участвовал автопилот

Хватит или продолжать? Как «знаток» дел Теслы, вы должны были это знать.

Если б там было так все плохо

Как я и сказал в посте, у фанатов Теслы пойдет пена из ушей и они не прочитают примечание про автопилоты Теслы серым текстом. Давайте, спросите: «какое примечание серым текстом про автопилоты Теслы?»
avatar
A2format, Хоть один случай есть, когда Теслу признали виновной или она выплатила денег вне суда за аварию про автопилоты? А то обычно выясняется, что водители хотели соскочить и придумали про автопилот.
avatar
Вася Пражкин, 

Хоть один случай есть, когда Теслу признали виновной или она выплатила денег вне суда за аварию про автопилоты? А то обычно выясняется, что водители хотели соскочить и придумали про автопилот.

Вы упоминали про американскую юриспруденцию… так вот, виновный — это по делу аж 2019 года. Не переживайте, еще подтянутся новые дела и иски. Это не первый и не последний.

Ну что, серый текст в посте прочитали? Или еще нет?
avatar
A2format, Так иск был не к Тесле, о чем разговор вообще? Если б виноват был автопилот, то иск был бы к Тесле, а так — водила виноват.
avatar
Вася Пражкин, 

Так иск был не к Тесле

В третий раз повтор для вас: 
Американские полицейские подали на Tesla в суд из-за аварии с участием пьяного водителя и автопилота

Жирным и красным хватит? Или еще шрифт увеличить надо?
avatar
A2format, Ну подали иск и что? Любой человек, включая Вас может подать иск к Тесле. Это вообще ничего не гарантирует. Где выигранный иск? Чтоб апелляцию еще прошел?
avatar
Вася Пражкин, 

Где выигранный иск? Чтоб апелляцию еще прошел?

Если в XV веке люди не были на Луне, значит там они никогда не будут? Я верно понимаю вашу логику? Если такого еще не было, то и никогда не будет?

— ДТП с автопилотами не будет!

 … ДТП с автопилотами.

— Исков против автопилотов не будет!

… Иски против автопилотов, расследования...

— Выигранных исков против автопилотов не будет!

...202…
avatar
A2format, Я верно понимаю вашу логику?
Похоже, что Вы не понимаете разницу между поданным иском и выигранным.
avatar
Вася Пражкин, 

что Вы не понимаете разницу между поданным иском и выигранным.

Вы значение элементарных слов не знаете, куда уж вам что-то сложнее...

smart-lab.ru/blog/761878.php#comment13608513
avatar
это только ваши предположения — если бы да кабы.
Вы явно не в курсе, как работает юридическая система Америки. Я Вам для примера кейс Uber указал и это не предположения, а реальный факт. Мало этого — погуглите, примеров миллионы, в том числе и классовых исков, которые могут обанкротить компанию, даже такую большую, как Тесла.

"в котором каждые 8 ​​минут происходит критический сбой" — если б было так, то система не смогла бы работать, это понимает любой мало-мальски опытный айтишник. Ну и вся статья в таком духе, рассчитана на людей, которые не разбираются в вопросах — ни в айти, ни в американской юриспруденции.
avatar
Вася Пражкин, 

Я Вам для примера кейс Uber указал и это не предположения, а реальный факт. 

Прочите о судебных исках к Тесле и уже завершенному судебному разбирательству с летальным исходом smart-lab.ru/blog/761878.php#comment13607514

Ну и вся статья в таком духе, рассчитана на людей, которые не разбираются вопросах — ни в айти, ни в американской юриспруденции.

Уже на примере американской юриспруденции — уже видно, что вы не в курсе дел Теслы. В айти, предположу, у вас тоже есть «мнение», и оно так же, скорее всего, не дотягивает до нормального уровня, как и «знание» американской юриспруденции.

Если вы не согласны, то по американской юриспруденции засудите того чувака и New York Times за это. Ссылку на иск запостите на Смартлабе. Вот же они негодяи.
avatar
A2format, Прочите о судебных исках к Тесле и уже завершенному судебному разбирательству с летальным исходом
Вы разницу между иском к водителю и иском к Тесле хорошо понимаете? То, что водитель ехал на Тесле еще ни о чем не говорит.
avatar
Вася Пражкин, 

Вы разницу между иском к водителю и иском к Тесле хорошо понимаете? То, что водитель ехал на Тесле еще ни о чем не говорит.

Давайте я вам поясню на пальцах. Я вам привел ДВА вида исков.

К TESLA

Американские полицейские подали на Tesla в суд из-за аварии с участием пьяного водителя и автопилота

К водителю:

В США водитель Tesla впервые предстанет перед судом за ДТП со смертельным исходом, в котором участвовал автопилот

Да, расскажите мне про разницу этих случаев.
avatar
A2format, То, что подали — это не считается. Я просил Вас привести пример, когда ВЫНЕСЕН был приговор и прошли апелляции. То есть был факт выплаты денег со стороны Теслы, как в том случае с Uber, когда они выплатили денег дочке постарадавшей. Иски к Тесле, уверен, подаются каждый день, обсуждать это бессмысленно, так как до самого суда мало что доходит.
avatar
Вася Пражкин, 

То, что подали — это не считается.

Чувак, осужденный по делу 2019 года тоже может отмазаться, сказав, что поданный иск не считается?

Прошло 3 года пока вынесли приговор. Американские полицейские подали иск 4 месяца назад (не года). Или вам не нравится скорость вынесения приговоров  в США? Помогите американской юриспруденции. 

Кстати, чувак по делу 2019 года может тоже подать иск к Тесле — ведь в аварии тогда тоже автопилот участвовал (странно, что еще не подал, или до последнего надеялся, что автопилотом удастся отмазаться?).

В США началось официальное расследование в отношении автопилота Tesla

NHTSA может очень хорошо припечатать или завершиться коллективным иском.

А ваш аргумент уровня: «никогда такого не было, и вот опять».
avatar
A2format, В США началось официальное расследование в отношении автопилота Tesla
Вы новость саму читали? Это только в заголовке — «расследование», а в самой новости уже — «проверка». Такие проверки — это прямые обязанности NHTSA, они их проводят постоянно и в отношении всех крупных автопроизводителей. Вот когда иск выиграют — это другое дело.
avatar
Вася Пражкин, 

Это только в заголовке — «расследование», а в самой новости уже — «проверка».

Ух, и тут вы «знаток».


Юрист из вас никакой.
Айтишник из вас никакой.
Еще и гуманитарий из вас не удался.

Купите словарик 

avatar
A2format, Когда аргументов не хватает — переходите на оскорбления? Удачи.
avatar
Вася Пражкин, 

Когда аргументов не хватает — переходите на оскорбления?

Я аргументы раза по три повторял. Красным выделял. Итолку?
Если вы даже значение слов не знаете, то где вы видели оскорбления?

Кстати, забыл:

Чтобы понять уровень чувака, зайдите на сайт его компании — https://www.ghs.com/, это ж 90-е годы!

Про миллиардера про Джима Саймонса слышали (24 млрд.)? Про его инвестиционный фонд? (Хотя, на словах, вы и инвестор тоже огого?)

Вот ссылка на его фонд: www.rentec.com/Home.action?index=true


Это даже не 90-е, это 80-е.

Давайте, Вася Пражкин со Смартлаба, по виду сайта расскажите, что Джим Саймонс лох и неудачник со своими 24 млрд.

Или сейчас снова будете рассказывать, что лох и неудачник это разные по смыслу слова?

 Удачи.

Спасибо, и вам удачи.
avatar
Пока в бета режиме тестят добровольцы. Чтобы подлкючили эту оплаченную фичу нужно ещё и рейтинг иметь, если падает ниже требуемого-вылетаешь из тестирования.

теги блога A2format

....все тэги



UPDONW
Новый дизайн