Tesla: NHTSA menyelidiki perangkat lunak autopilot setelah serangkaian kecelakaan fatal
Artikel

Tesla: NHTSA menyelidiki perangkat lunak autopilot setelah serangkaian kecelakaan fatal

Administrasi Keselamatan Lalu Lintas Jalan Raya Nasional telah meluncurkan penyelidikan terhadap Autopilot Tesla setelah beberapa kali kecelakaan. Penyelidikan mencakup seluruh jajaran model Tesla, sekitar 765,000 kendaraan.

El pilot otomatis tesla di bawah api lagi. Kali ini, semuanya jauh lebih serius. Administrasi Keselamatan Lalu Lintas Jalan Raya Nasional (NHTSA) telah meluncurkan penyelidikan. pernyataan resmi tentang perangkat lunak kendali jelajah adaptif milik Tesla. Sayangnya, ini terjadi setelah serangkaian kecelakaan. Tapi sekarang Tesla benar-benar bermasalah dengan FBI.

Seluruh jajaran model merek tunduk pada konsultasi

Jadi apa sebenarnya yang menyebabkan FBI melakukan Tesla Autopilot? Sayangnya, ada beberapa kecelakaan, 11 tepatnyabahwa NHSTA mengatakan Tesla terlibat dan responden pertama saat Tesla Autopilot aktif. Jelas, NHSTA tidak menyetujui personel darurat bertabrakan dengan kendaraan "mengemudi sendiri" sampai mereka secara hukum pantas untuk tidak melakukannya. Namun, ketika itu cocok untuk Anda.

Perilaku ini telah menarik perhatian NHTSA. Sayangnya diaInvestigasi mencakup seluruh jajaran Tesla, sekitar 765,000 kendaraan.. Namun, penting untuk dicatat bahwa Tesla dan, dengan perluasan, Elon Musk tidak bersalah sampai terbukti bersalah. Penyelidikan sedang berlangsung, tetapi Dewan Keselamatan Transportasi Nasional (NTSB) telah merekomendasikan bahwa NHTSA mengharuskan Tesla untuk membatasi area di mana Tesla Autopilot dapat digunakan.

Tesla Autopilot jelas tidak akan menggantikan orang sungguhan

NTSB telah menembaki Tesla sebelumnya, menyalahkan perusahaan atas banyak kecelakaan lainnya. Namun, perlu dicatat bahwa tidak hanya autopilot Tesla yang harus disalahkan di sini. Orang-orang tidak terlalu bertanggung jawab tentang perangkat lunak semi-otonom. Mereka melakukan segalanya mulai dari tidur hingga. Namun, dalam kebanyakan kasus, orang-orang ini dihukum. NHTSA sekarang mencoba untuk menentukan apakah Tesla juga bertanggung jawab atas hal ini.

Dengan satu atau lain cara, mereka harus melakukannya. Sebuah budaya telah berkembang di sekitar model Tesla yang telah menjadi sangat berbahaya. Dan faktanya mobil dipromosikan sebagai sesuatu dari iRobot atau Bladerunner, meskipun sebenarnya tidak. Tesla self-driving penuh bukanlah self-driving penuh. Paling-paling, ini adalah versi beta. Terus terang, orang tidak cukup bertanggung jawab untuk mobil self-driving. Dan itulah yang tampaknya telah mendorong penyelidikan NHTSA.

Bagaimana merek dapat pulih dari ini?

Jelas bahwa Tesla sedang mengalami masalah gambar sekarang. Tesla perlu memulai dengan transparansi. Mengubah beberapa nama akan menjadi awal yang baik. "Tesla Autopilot" agak menyesatkan. Perangkat lunak kendali jelajah adaptif "SuperCruise" GM tidak berdiri untuk mengemudi secara otonom, tetapi "Autopilot" melakukannya. Ini tentu akan menjadi awal, tetapi setiap perubahan nyata perlu dilihat dalam apa yang dikatakan NHSTA.

********

-

-

Tambah komentar