Оригинал материала: https://3dnews.kz/1108751

Хакеры получили доступ к процессорам Tesla FSD аварийных автомобилей и раскрыли тревожащие данные

Независимое расследование, проведенное The Wall Street Journal, показало, что система помощи водителю Tesla Autopilot может приводить к смертельным авариям из-за ошибочных решений, принимаемых алгоритмом. Журналисты издания извлекли компьютеры Tesla с функцией FSD из аварийных автомобилей и с помощью хакеров, как сообщает Notebookcheck, получили доступ к необработанным данным автопилота.

 Системная плата компьютера Tesla FSD. Источник изображения: WSJ

Системная плата компьютера Tesla FSD. Источник изображения: WSJ

Анализ этой информации вместе с видеозаписями аварий и официальными отчётами позволил воссоздать 222 инцидента с участием Tesla. В 44 случаях автомобили на автопилоте внезапно меняли траекторию направления, а в 31 случае не остановились или не уступили дорогу. Последний сценарий, по данным исследования, обычно приводил к наиболее тяжёлым авариям.

Одним из самых ярких и нашумевших примеров служит столкновение с перевёрнутым прицепом, который система автопилота не смогла распознать как препятствие и автомобиль Tesla врезался в него на полной скорости. Приводятся и другие свидетельства, когда во время тест-драйва система FSD повела себя неадекватно, в следствии чего автомобиль пересёк сплошную линию разметки и едва не спровоцировал аварию на перекрёстке. Также выяснилось, что система FSD плохо распознаёт аварийные сигналы, что приводит к столкновению транспортных средств.

Расследование The Wall Street Journal выявило в автопилоте проблемы как аппаратного, так и программного характера, начиная от медленного обновления алгоритмов до недостаточной калибровки камер. Пока неясно, достаточно ли этих данных, чтобы опровергнуть утверждение Илона Маска (Elon Musk) о том, что система Tesla всё равно безопаснее водителя-человека.



Оригинал материала: https://3dnews.kz/1108751