Блог им. A2format
Полностраничная реклама в воскресной газете New York Times была нацелена на программное обеспечение Tesla «Full Self-Driving», называя его «худшим программным обеспечением, когда-либо проданным компанией из списка Fortune 500» и предлагая 10 000 долларов — ту же цену, что и само программное обеспечение, для первого лица, кто мог бы назвать «еще один коммерческий продукт от компании из списка Fortune 500, в котором каждые 8 минут происходит критический сбой».
Рекламу разместила The Dawn Project, недавно основанная организация, стремящаяся запретить использование небезопасного программного обеспечения в критически важных для безопасности системах, которые могут стать мишенью для хакеров военного образца, в рамках кампании по удалению Tesla Full Self-Driving (FSD) из публичного доступа, пока у него не будет «в 1000 раз меньше критических неисправностей».
Основатель правозащитной группы Дэн О'Дауд также является генеральным директором Green Hill Software, компании, которая создает операционные системы и инструменты программирования для встраиваемых систем безопасности. На выставке CES компания заявила, что автомобиль BMW iX использует свою ОС реального времени и другое программное обеспечение для обеспечения безопасности, а также объявила о доступности своего нового беспроводного программного продукта и услуг передачи данных для автомобильных электронных систем.
Несмотря на потенциальную предвзятость основателя The Dawn Project, бета-версия программного обеспечения Tesla FSD, усовершенствованной системы помощи водителю, к которой владельцы Tesla могут получить доступ для управления некоторыми функциями вождения на городских улицах, в последние месяцы подверглась тщательному анализу после серии видеороликов на YouTube, которые показали недостатки в системе стали вирусными.
Объявление NYT появилось всего через несколько дней после того, как Департамент транспортных средств Калифорнии сообщил Tesla, что будет «пересматривать» свое мнение о том, что программа испытаний компании, в которой участвуют потребители, а не профессиональные операторы безопасности, не подпадает под действие правил автономных транспортных средств департамента. Калифорнийское DMV регулирует тестирование автономного вождения в штате и требует от других компаний, таких как Waymo и Cruise, которые разрабатывают, тестируют и планируют развертывание роботакси, сообщать о авариях и системных сбоях, называемых «отключениями». Tesla никогда не публиковала эти отчеты.
С тех пор генеральный директор Tesla Илон Маск расплывчато ответил в Twitter, утверждая, что FSD Tesla не привел к несчастным случаям или травмам с момента его запуска. Национальное управление безопасности дорожного движения США (NHTSA) расследует сообщение владельца Tesla Model Y, который сообщил, что его автомобиль выехал на неправильную полосу при повороте налево в режиме FSD, в результате чего автомобиль был сбит другим водителем.
Даже если это была первая авария FSD, автопилот Tesla, ADAS автопроизводителя, который входит в стандартную комплектацию автомобилей, участвовал примерно в дюжине аварий.
Наряду с рекламой в NYT, The Dawn Project опубликовала проверку фактов своих заявлений, ссылаясь на собственный анализ безопасности FSD, в котором изучались данные из 21 видео на YouTube, общее время в пути которых составило семь часов.
Проанализированные видео включали бета-версии 8 (выпущенные в декабре 2020 г.) и 10 (выпущенные в сентябре 2021 г.), и в исследовании избегались видео со значительно положительными или отрицательными заголовками, чтобы уменьшить предвзятость. Каждое видео было оценено в соответствии с оценкой эффективности водителя DMV Калифорнии, которую должны пройти водители, чтобы получить водительские права. Чтобы сдать экзамен на вождение, водители в Калифорнии должны иметь не более 15 ошибок при маневрировании, таких как неиспользование сигналов поворота при смене полосы движения или соблюдение безопасного расстояния от других движущихся транспортных средств, и не иметь критических ошибок вождения, таких как авария или проезд на красный свет.
Исследование показало, что FSD v10 совершает 16 ошибок при подсчете очков в среднем менее чем за час и критическую ошибку вождения примерно каждые 8 минут. Анализ показал, что количество ошибок за девять месяцев между v8 и v10 уменьшилось, но при нынешних темпах улучшения «потребуется еще от 7,8 лет (по данным AAA) до 8,8 лет (по данным Бюро транспорта), чтобы достичь уровня аварийности человека-водителя».
В рекламе Dawn Project содержатся некоторые смелые заявления, которые следует воспринимать с долей скептицизма, особенно потому, что размер выборки слишком мал, чтобы его можно было воспринимать всерьез со статистической точки зрения. Если, однако, семь часов отснятого материала действительно представляют средний привод FSD, результаты могут свидетельствовать о более серьезной проблеме с программным обеспечением Tesla FSD и касаться более широкого вопроса о том, следует ли разрешать Tesla тестировать это программное обеспечение на дорогах общего пользования. без регулирования.
«Мы не подписывались на то, чтобы наши семьи были манекенами для краш-тестов тысяч автомобилей Tesla, которые ездят по дорогам общего пользования…», — говорится в объявлении.
Федеральные регулирующие органы начали принимать некоторые меры против Tesla и ее бета-версий программных систем Autopilot и FSD.
В октябре НАБДД направило автопроизводителю два письма, в которых говорилось об использовании им соглашений о неразглашении для владельцев, получивших ранний доступ к бета-версии FSD, а также о решении компании использовать беспроводные обновления программного обеспечения для устранения проблемы в стандартная система автопилота, которая должна была быть отзывом. Кроме того, летом Consumer Reports опубликовала заявление, в котором говорилось, что обновление программного обеспечения FSD версии 9 недостаточно безопасно для дорог общего пользования, и что оно будет независимо тестировать программное обеспечение. На прошлой неделе организация опубликовала результаты своих испытаний, которые показали, что «система наблюдения за водителем на основе камеры Tesla не может удерживать внимание водителя на дороге». CR обнаружил, что BlueCruise от Ford, с другой стороны, выдает предупреждения, когда глаза водителя отвлекаются.
С тех пор Tesla выпустила множество различных версий своего программного обеспечения v10 — 10.9 должна выйти со дня на день, а версия 11 с «единым программным стеком для города/шоссе» и «множеством других архитектурных обновлений» выйдет в феврале, по словам генерального директора Илона Маска.
Обзоры последней версии 10.8 искажены: некоторые онлайн-комментаторы говорят, что она намного более плавная, а многие другие заявляют, что вообще не чувствуют себя уверенно в использовании этой технологии. Тема обзора новейшей версии FSD на странице субреддита Tesla Motors показывает, что владельцы делятся жалобами на программное обеспечение, а один даже пишет: «Определенно еще не готов для широкой публики…»
Другой комментатор сказал, что машине потребовалось слишком много времени, чтобы повернуть направо на «совершенно пустую, прямую дорогу… Затем ей пришлось повернуть налево, и она продолжала колебаться без причины, блокируя встречную полосу, а затем внезапно ускорилась, как только выехала на встречную полосу. следующую улицу, после чего последовало столь же внезапное замедление, потому что он изменил свое мнение о скорости и теперь думал, что дорога со скоростью 45 миль в час — это 25 миль в час».
Водитель сказал, что в конечном итоге ему пришлось полностью отключиться, потому что система полностью игнорировала предстоящий левый поворот, который должен был произойти на стандартном перекрестке «с огнями и хорошей видимостью во всех направлениях и без другого движения».
Кампания Dawn Project подчеркивает предупреждение Tesla о том, что ее FSD «может сделать что-то не так в самый неподходящий момент».
«Как можно терпеть критически важный для безопасности продукт на рынке, который может сделать что-то не так в самый неподходящий момент», — заявила правозащитная группа. «Разве это не определение дефекта? Полное беспилотное вождение должно быть немедленно удалено с наших дорог».
Ни Tesla, ни The Dawn Project не удалось получить комментарии.
techcrunch.com/2022/01/17/new-york-times-ad-warns-against-teslas-full-self-driving/
Про автопилот Теслы что-то необъективное написано?
От начала до конца приведенный текст не может быть чушью.
Что конкретно чушь?
Американские полицейские подали на Tesla в суд из-за аварии с участием пьяного водителя и автопилота
В США водитель Tesla впервые предстанет перед судом за ДТП со смертельным исходом, в котором участвовал автопилот
Хватит или продолжать? Как «знаток» дел Теслы, вы должны были это знать.
Как я и сказал в посте, у фанатов Теслы пойдет пена из ушей и они не прочитают примечание про автопилоты Теслы серым текстом. Давайте, спросите: «какое примечание серым текстом про автопилоты Теслы?»
Вы упоминали про американскую юриспруденцию… так вот, виновный — это по делу аж 2019 года. Не переживайте, еще подтянутся новые дела и иски. Это не первый и не последний.
Ну что, серый текст в посте прочитали? Или еще нет?
В третий раз повтор для вас:
Американские полицейские подали на Tesla в суд из-за аварии с участием пьяного водителя и автопилота
Жирным и красным хватит? Или еще шрифт увеличить надо?
Если в XV веке люди не были на Луне, значит там они никогда не будут? Я верно понимаю вашу логику? Если такого еще не было, то и никогда не будет?
— ДТП с автопилотами не будет!
… ДТП с автопилотами.
— Исков против автопилотов не будет!
… Иски против автопилотов, расследования...
— Выигранных исков против автопилотов не будет!
...202…
Вы значение элементарных слов не знаете, куда уж вам что-то сложнее...
smart-lab.ru/blog/761878.php#comment13608513
"в котором каждые 8 минут происходит критический сбой" — если б было так, то система не смогла бы работать, это понимает любой мало-мальски опытный айтишник. Ну и вся статья в таком духе, рассчитана на людей, которые не разбираются в вопросах — ни в айти, ни в американской юриспруденции.
Прочите о судебных исках к Тесле и уже завершенному судебному разбирательству с летальным исходом smart-lab.ru/blog/761878.php#comment13607514
Уже на примере американской юриспруденции — уже видно, что вы не в курсе дел Теслы. В айти, предположу, у вас тоже есть «мнение», и оно так же, скорее всего, не дотягивает до нормального уровня, как и «знание» американской юриспруденции.
Если вы не согласны, то по американской юриспруденции засудите того чувака и New York Times за это. Ссылку на иск запостите на Смартлабе. Вот же они негодяи.
Давайте я вам поясню на пальцах. Я вам привел ДВА вида исков.
К TESLA
Американские полицейские подали на Tesla в суд из-за аварии с участием пьяного водителя и автопилота
К водителю:
В США водитель Tesla впервые предстанет перед судом за ДТП со смертельным исходом, в котором участвовал автопилот
Да, расскажите мне про разницу этих случаев.
Чувак, осужденный по делу 2019 года тоже может отмазаться, сказав, что поданный иск не считается?
Прошло 3 года пока вынесли приговор. Американские полицейские подали иск 4 месяца назад (не года). Или вам не нравится скорость вынесения приговоров в США? Помогите американской юриспруденции.
Кстати, чувак по делу 2019 года может тоже подать иск к Тесле — ведь в аварии тогда тоже автопилот участвовал (странно, что еще не подал, или до последнего надеялся, что автопилотом удастся отмазаться?).
В США началось официальное расследование в отношении автопилота Tesla
NHTSA может очень хорошо припечатать или завершиться коллективным иском.
А ваш аргумент уровня: «никогда такого не было, и вот опять».
Ух, и тут вы «знаток».
Юрист из вас никакой.
Айтишник из вас никакой.
Еще и гуманитарий из вас не удался.
Купите словарик
Я аргументы раза по три повторял. Красным выделял. Итолку?
Если вы даже значение слов не знаете, то где вы видели оскорбления?
Кстати, забыл:
Про миллиардера про Джима Саймонса слышали (24 млрд.)? Про его инвестиционный фонд? (Хотя, на словах, вы и инвестор тоже огого?)
Вот ссылка на его фонд: www.rentec.com/Home.action?index=true
Это даже не 90-е, это 80-е.
Давайте, Вася Пражкин со Смартлаба, по виду сайта расскажите, что Джим Саймонс лох и неудачник со своими 24 млрд.
Или сейчас снова будете рассказывать, что лох и неудачник это разные по смыслу слова?
Спасибо, и вам удачи.