Pertikaian Sama ada Tesla FSD Akan Dilanggar Kanak-Kanak Atau Kanak-Kanak Dummy Meleset

A video baru-baru ini daripada TeslaTSLA
-pengkritik Dan O'Dowd dari "Projek Fajar" menunjukkan trek ujian dengan jalan yang diperbuat daripada kon. Di sana, seorang pemandu yang menggunakan prototaip FSD Tesla memandu ke arah boneka kemalangan kanak-kanak dan melanggarnya. Adalah dihujahkan bahawa Telsa FSD tidak boleh membrek dengan pasti untuk kanak-kanak. Pengkritik O'Dowd mendakwa bahawa video itu dipalsukan atau dibuat dengan teruk, dan ada yang melakukan tunjuk cara mereka sendiri, termasuk, untuk menyusahkan semua, melakukan ujian dengan kanak-kanak "sukarelawan" secara langsung. Sedikit yang mempertimbangkan persoalan sama ada prototaip seperti Tesla FSD sepatutnya membrek dengan pasti untuk kanak-kanak, yang merupakan isu yang menarik.

O'Dowd telah menulis dengan kerap bahawa dia mahu Tesla FSD diharamkan. Saya membuat liputan kempen beliau sebelum ini, dan baru-baru ini dia bertanding untuk pencalonan Senat California semata-mata untuk menyiarkan iklan kempen anti-Tesla FSD. Dia secara semula jadi telah menimbulkan kemarahan Elon Musk dan komuniti pro-Tesla yang vokal. Oleh itu, berlaku pertengkaran serta-merta. Video asal yang dipautkan di atas tidak menunjukkan FSD diaktifkan, walaupun keluaran kemudian menunjukkannya. Ada yang mencadangkan bahawa imej skrin yang sukar dibaca mengatakan pemandu sedang menahan pedal. Data lain menunjukkan kereta itu perlahan atau mengeluarkan amaran, dan hujah telah berulang-alik tentang betapa sebenar demonstrasi itu.

IKLAN

Demonstrasi itu dipilih sebagai provokatif, kerana tidak ada yang lebih menakutkan daripada kereta yang melanggar kanak-kanak. 3 kanak-kanak maut dalam kemalangan kereta setiap hari di Amerika Syarikat, dan setiap tahun kira-kira 170 pejalan kaki kanak-kanak maut akibat kereta. Bagi kebanyakan orang, tindak balasnya ialah tiada teknologi yang akan berlaku pada kanak-kanak boleh diterima. NHTHT
SA telah memulakan penyiasatan ke atas penggunaan Tesla Autopilot (yang merupakan produk yang dikeluarkan) dan mula melihat prototaip FSD. Yang lain, seperti Ralph Nader, juga telah membuat panggilan untuk mengeluarkan prototaip FSD dari jalan. Selepas sebilangan kecil orang mengulangi ujian dengan kanak-kanak sebenar, NHTSA mengeluarkan amaran untuk tidak melakukan ini, dan Youtube menarik video orang yang melakukannya. Tesla dilaporkan telah meminta agar video kereta mereka memukul boneka ujian juga dialih keluar. The Washington Post melaporkan melihat surat Berhenti dan Hentikan daripada Tesla.

Isu ini sangat kompleks, dan kerana tidak terlalu luar biasa, tiada siapa yang memahaminya dengan betul. Sistem FSD, walaupun dipanggil beta, lebih tepat dipanggil prototaip. Prototaip pandu sendiri (dan beta) memerlukan sejumlah besar ujian di jalan raya pada pandangan kebanyakan pembangun, dan setiap pasukan melakukan ini, dengan "pemandu keselamatan" manusia memantau sistem dan kerap campur tangan apabila ia membuat kesilapan untuk mengelakkan insiden. Tesla adalah luar biasa kerana ia membenarkan pelanggan biasa terlibat dalam ujian ini, manakala semua syarikat lain mempunyai pekerja, dengan beberapa tahap latihan melakukan tugas ini, dan biasanya mempunyai 2 pekerja setiap kenderaan.

Prototaip, mengikut sifatnya, gagal, termasuk perkara penting seperti berhenti untuk pejalan kaki di jalan raya. Setiap pasukan dari yang terbaik seperti Waymo hingga yang paling teruk, telah meletakkan kenderaan di atas jalan yang kerap melakukan sesuatu yang teruk kecuali untuk campur tangan, dan kebanyakannya merasakan melakukan ujian terhadap kenderaan peringkat awal sedemikian adalah dan masih perlu untuk membuat kemajuan dan akhirnya menggunakan kereta itu. Setelah digunakan, kereta itu akan menjadi lebih berkualiti dan menyelamatkan nyawa — banyak daripada mereka — jadi semua orang mahukan penggunaan itu berlaku secepat mungkin, tetapi terdapat banyak isu untuk dibincangkan tentang cara kami sampai ke tahap itu dan apabila kami telah mencapai ia.

IKLAN

Bantuan Pemandu lwn Memandu Sendiri

Sebagai tambahan kepada persoalan sama ada penggunaan pelanggan Tesla untuk menguji prototaip mereka adalah idea yang baik, banyak isu berkisar pada perbezaan antara sistem bantuan pemandu, yang melibatkan manusia yang terlibat sepenuhnya dalam pemanduan, tetapi menyelia sistem dan bukannya bergerak secara fizikal. kawalan, dan sistem pandu sendiri, di mana tiada pengawasan manusia diperlukan (dan sememangnya, kenderaan itu boleh berjalan dengan tiada sesiapa di dalamnya.)

Ramai orang dalam industri merasakan bahawa ini adalah dua perkara yang agak berbeza, dan adalah kesilapan bagi NHTSA untuk mengisytiharkannya sebagai hanya dua "tahap" teknologi automasi yang berbeza. Sterling Anderson, pengasas bersama Aurora memandu sendiri, berpendapat bahawa beralih daripada bantuan pemandu (atau ADAS, untuk bantuan pemandu lanjutan) kepada memandu sendiri adalah seperti cuba pergi ke bulan dengan membina tangga yang lebih tinggi.

Sistem bantuan pemandu lanjutan besar pertama yang membolehkan seseorang melepaskan pedal ialah kawalan pelayaran, khususnya kawalan pelayaran adaptif. Kemudian, penjaga lorong tiba yang membolehkan anda melepaskan tangan anda dari roda, dan tidak lama kemudian kedua-duanya digabungkan dalam produk seperti Tesla "Aupilot." Sebagai alat ADAS (bantuan pemandu) ini bertujuan untuk digunakan dengan penuh perhatian.

IKLAN

Walaupun tidak semua orang percaya pada mulanya, kesimpulan umum hari ini ialah sistem ini berfungsi, dan tidak menimbulkan bahaya di jalan raya. Orang ramai meragui walaupun kawalan pelayaran asas pada mulanya, tetapi ia tidak lama kemudian menjadi ciri yang sangat biasa pada kereta.

Tesla Autopilot menimbulkan persoalan baharu atas pelbagai sebab, tetapi isu yang paling menarik berkisar pada fakta yang jelas lebih unggul dalam fungsi berbanding produk terdahulu, termasuk kawalan pelayaran yang lebih ringkas — namun keunggulan itu sebenarnya boleh menjadikannya lebih berbahaya, dan dengan itu lebih rendah. Paradoks yang ganjil timbul, di mana lebih baik sistem itu, lebih buruk hasilnya, kerana sistem yang lebih baik mendorong "kepuasan automasi" di mana pemandu penyelia kurang memberi perhatian kepada jalan raya. (Sesetengah juga percaya bahawa "Autopilot" dan nama FSD Tesla menggalakkan sikap berpuas hati ini, dan pemesejan awam di sekitar produk ini juga berbuat demikian.)

Ini bukan paradoks yang baik untuk dimiliki. Kami mahu membangunkan sistem yang lebih baik, tetapi jika sistem menjadi lebih teruk secara keseluruhan apabila anda menjadikannya lebih baik, adalah lebih sukar untuk mendapatkan sistem yang benar-benar baik semasa anda melalui lembah bahaya di mana keadaan menjadi lebih teruk sebelum ia menjadi lebih baik. Hari ini, kami tidak akan menyalahkan kawalan pelayaran standard kerana fakta bahawa ia akan melanggar kanak-kanak atau melanggar lampu merah - sistem tersebut lebih mudah dan tidak mempunyai keupayaan sama sekali untuk mengelakkan kesilapan tersebut. Tetapi ramai yang ingin menyalahkan sistem yang jauh lebih hebat yang berhenti untuk kebanyakan halangan kerana ia tidak berhenti untuk 100% — walaupun tidak ada sistem yang akan menjadi begitu sempurna untuk mengelakkan 100% kesilapan, dan walaupun manusia juga tidak akan sempurna.

IKLAN

Saya mengambil bahagian dalam penggubalan undang-undang ujian memandu sendiri yang pertama di dunia, di Nevada dan California. Para pemain bersetuju perlu ada beberapa peraturan asas tentang cara melakukan ujian di jalan raya (peraturan sebelumnya tidak melarangnya, kerana sudah tentu tiada siapa yang pernah terfikir untuk berbuat demikian.) Pada masa yang sama, pembuat kereta, yang menjual alat ADAS, melakukannya. tidak mahu kereta ADAS mereka tertakluk kepada peraturan ujian memandu sendiri, jadi operasi ADAS dipahat sebagai tidak dilindungi oleh peraturan tersebut.

Di California, khususnya, ini mencipta soalan terbuka. Semua ujian memandu sendiri (dengan beberapa pengecualian baru-baru ini) dilakukan dengan pemandu keselamatan yang mengawasi. Dengan cara itu ia sangat seperti memandu kereta ADAS. Undang-undang tidak jelas mengenai perbezaan yang telah mewujudkan beberapa situasi yang menarik. Anthony Levandowski, yang turut mengambil bahagian dalam penggubalan peraturan, kemudiannya menjadi ketua UberUBER
ATG. Beliau mengisytiharkan bahawa memandangkan semua kereta mereka pada masa itu hanya beroperasi dengan pemandu keselamatan, ini adalah ADAS, dan Uber tidak perlu mematuhi peraturan ujian memandu sendiri. DMV California berkata tidak, di bawah logik ini tiada siapa yang menguji pemanduan sendiri, dan itu bukan tujuan undang-undang. Mereka memberitahu Uber bahawa mereka perlu mendaftar sebagai kenderaan ujian pandu sendiri, atau mereka akan menarik plat lesen kereta Uber menggunakan kuasa khas mereka. Uber mematuhi.

IKLAN

DMV mengambil pendekatan bahawa jika anda cuba membuat sistem pandu sendiri, walaupun sistem itu adalah sistem pandu sendiri yang tidak lengkap yang memerlukan pengawasan dan sentiasa diawasi, anda harus dianggap sebagai syarikat ujian memandu sendiri yang dikawal oleh peraturan.

Walaupun begitu, Tesla meneruskan pendekatan yang sama. Memandangkan Tesla pasti mempunyai produk ADAS, mereka tidak pernah melaporkan melakukan sebarang ujian memandu sendiri ke negeri ini. Setakat ini DMV telah membiarkan slaid ini — malah ujian Tesla FSD oleh pekerja Tesla yang sangat sukar untuk dibezakan dengan apa yang mereka hentikan Uber daripada lakukan. DMV mungkin mengawal selia ini. Tetapi bagaimana pula dengan penggunaan pelanggan, di mana ia secara rasmi (jika anda membaca cetakan halus dan mengabaikan nama) alat bantuan pemandu?

Tetapi nampaknya berkesan

Penyelesaian utama untuk ini adalah cara untuk memastikan perhatian penyeliaan kekal tinggi. Terdapat pelbagai teknik untuk ini, termasuk memantau pemandu dalam pelbagai cara dan mengomel mereka jika mereka tidak memberi perhatian, atau seperti yang dinyatakan telah melatih pemandu profesional atau bahkan sepasukan daripada mereka dengan banyak mata di jalan raya. Selama beberapa dekad kami telah melatih pemandu usia remaja di sekolah memandu dengan mempunyai seorang pengajar yang boleh memegang roda dan mempunyai brek sendiri untuk memberhentikan kereta, dan sistem itu telah berfungsi dengan baik.

IKLAN

Kesimpulan yang kukuh setakat ini ialah ini berkesan. Rekod keselamatan syarikat memandu sendiri utama seperti Waymo adalah teladan. Waymo melaporkan lebih 20 juta batu ujian dengan pemandu keselamatan pada tahun 2021, dan pada masa itu mungkin telah mengalami 2 kemalangan kerana kesalahan. Manusia, secara purata, akan mengalami hampir 40 kemalangan dalam tempoh masa itu. Sama seperti pelajar memandu dengan pengajar memandu jauh lebih baik daripada pemandu baru berlesen, sistem pemantauan jelas berfungsi, dan kenderaan ini sebenarnya mengurangkan risiko kepada orang ramai berbanding pemanduan serupa oleh orang biasa.

Di Amerika Syarikat sekurang-kurangnya, jika tiada sesiapa yang cedera — atau sekurang-kurangnya jika tahap risiko kurang daripada pemanduan biasa — sesuatu aktiviti secara amnya tidak akan dikawal. Pendekatan AS adalah lebih permisif — anda tidak perlu membuktikan apa yang anda lakukan adalah selamat, tetapi jika ia ternyata tidak selamat, anda mungkin akan dihentikan dan didapati bertanggungjawab atas sebarang bahaya yang anda lakukan. Sesetengah negara lain memerlukan pengawal selia untuk membuat keputusan terlebih dahulu sama ada sesuatu itu selamat, bar yang lebih tinggi yang kurang kondusif untuk inovasi.

Sudah tentu, dalam satu kes terkenal, pendekatan pemandu keselamatan telah membawa maut, apabila kenderaan Uber ATG membunuh seorang pejalan kaki di Arizona. Siasatan NTSB dan kes mahkamah kemudiannya mendapati pemandu keselamatan itu cuai (dia menonton TV dan bukannya menjalankan tugasnya) walaupun Uber juga dipersalahkan kerana mempunyai budaya pengurusan pemandu keselamatan yang lemah yang menyumbang kepada kesilapan ini. Kesimpulan penting, bagaimanapun, ialah sistem pemandu keselamatan berfungsi dan tidak meletakkan orang ramai pada risiko yang tidak wajar, walaupun jelas kemungkinan pemandu keselamatan manusia cuai dan menyebabkan risiko tinggi.

IKLAN

Itulah sistem dengan pemandu berbayar terlatih. Tesla pergi lebih jauh, dan meminta pelanggan biasa melakukan kerja itu. Terdapat beberapa insiden di mana pemandu Tesla jelas cuai dalam menyelia produk Autopilot, dan kemalangan, termasuk yang membawa maut, telah berlaku. Walau bagaimanapun, kereta Tesla memandu jauh lebih banyak batu dengan Autopilot berbanding mana-mana pasukan memandu sendiri, jadi kehadiran peristiwa negatif dan juga tragis tidak semestinya bukti bahawa sistem itu mendedahkan orang ramai kepada risiko yang lebih besar.

Setiap suku tahun, Tesla menerbitkan statistik mengelirukan yang menyatakan bahawa pemandu yang menggunakan Autopilot mempunyai rekod keselamatan yang lebih baik daripada mereka yang tidak, walaupun sesetengah pengguna Autopilot cuai. Walaupun nombor ini sama dengan pembohongan, Saya dan yang lain telah cuba untuk merekayasa terbalik nombor sebenar, dan nombor sebenar tidak begitu buruk, dan mencadangkan bahawa pengguna Autopilot mempunyai rekod keselamatan yang serupa dengan bukan pengguna. Walaupun ia tidak unggul, ia juga tidak mendedahkan orang ramai kepada risiko tambahan. Hasilnya cukup hampir bahawa NHTSA sedang menjalankan penyiasatan mengenai kemalangan Tesla dengan kenderaan kecemasan. Tidak diketahui sama ada mereka akan mengambil pendekatan berjaga-jaga atau melihat rekod keselamatan keseluruhan.

Ramai telah mencadangkan bahawa Tesla boleh meningkatkan rekod mereka dengan pemantauan pemandu yang lebih baik. Pemantauan standard hanya menuntut pemandu kerap menggunakan daya pada roda. Syarikat lain mempunyai kamera yang mengawasi mata pemandu untuk memastikan mereka memerhatikan jalan raya — sekiranya Uber ATG melakukan ini, mereka akan mengelakkan kematian mereka. Tesla baru-baru ini mula menggunakan pemantauan pandangan pemandu juga.

IKLAN

Perlu diingatkan bahawa pengiraan yang menunjukkan keselamatan Tesla Autopilot sama seperti pemanduan biasa adalah pengiraan utilitarian. Ia sebenarnya adalah gabungan kadar kemalangan yang lebih tinggi di kalangan kader kecil pengguna Autopilot yang cuai yang mengabaikan jalan raya atau mendapat kepuasan automasi, dan rekod keselamatan yang lebih baik daripada mereka yang rajin. Kami menghadapi kesukaran falsafah dengan ini — kami tidak suka membuat sesetengah orang mempunyai risiko yang lebih tinggi walaupun lebih ramai orang mendapat risiko yang lebih rendah. Kami tidak begitu menyukainya sehingga kami mungkin menghalang orang yang rajin daripada alat yang menjadikan mereka lebih selamat untuk melindungi mereka yang cuai, walaupun ini bukan matlamat kami.

Bagaimana pula dengan FSD

Data di atas berkenaan dengan Autopilot, iaitu produk penghantaran. Tesla FSD bukan produk penghantaran. Mereka memanggilnya sebagai "beta" (yang merupakan produk yang hampir dimuktamadkan dalam fasa ujian terakhirnya sebelum dikeluarkan) tetapi ia tidak sama sekali. Mereka kini mempunyai lebih 100,000 pemilik Tesla mencubanya. Untuk menggunakannya, pemilik perlu membayar yuran (kini meningkat kepada $15,000) untuk prapesan sistem FSD akhirnya, dan lulus sejenis ujian pemanduan selamat untuk dimasukkan ke kohort ujian. Ujian memandu selamat adalah palsu dan tidak menguji apa yang anda inginkan untuk tugasan ini, tetapi ini bermakna tidak semua orang yang membayar mendapatnya.

Mereka memberi amaran kepada pemandu bahawa sistem itu mempunyai banyak pepijat dan memerlukan pengawasan berterusan seperti ADAS, dengan berkata, "Ia akan melakukan perkara yang salah pada masa yang paling teruk." Itu kenyataan yang agak jelas, tetapi pada masa yang sama nama "memandu sendiri sepenuhnya" jelas menimbulkan imej yang berbeza daripada ADAS. Saya telah memandu dengan sistem ini dan menilai prestasinya agak lemah sebagai sistem memandu sendiri.

IKLAN

Walaupun begitu, walaupun terdapat intuisi yang bertentangan, pendekatan Tesla nampaknya berfungsi. Dengan 100,000 pemandu, sistem sedang menjalani operasi berjuta-juta batu (walaupun tiada data awam tentang berapa banyak setiap pemandu menggunakan sistem.) Kami juga tahu terdapat banyak penelitian awam terhadap sebarang kemalangan yang melibatkan ujian FSD sistem, dan hanya sebilangan kecil insiden kecil telah diketahui umum. Walaupun beberapa penguji Tesla FSD adalah peminat Tesla yang sangat besar sehingga mereka mungkin menyembunyikan kemalangan yang mereka alami, sangat tidak mungkin bahawa sejumlah besar kemalangan besar berlaku tanpa satu pun didedahkan. Mana-mana polis serius melaporkan kemalangan, terutamanya kemalangan kecederaan, berkemungkinan besar mendapat perhatian, seperti yang mereka lakukan untuk Autopilot.

Namun kita tidak nampak mereka. Walaupun ini bukan analisis saintifik yang benar, nampaknya program FSD Tesla pada masa ini tidak meletakkan orang ramai dalam risiko. Ini mungkin disebabkan oleh betapa teruknya sistem itu. Kebanyakan pemandu tahu adalah bodoh jika tidak memberi perhatian kepada sistem ini dalam keadaan semasanya. Ada kemungkinan bahawa apabila ia menjadi lebih baik, ini akan berubah. Jika anda menganggap kawalan pelayaran asas, yang jauh lebih primitif, ia berfungsi kerana tiada siapa yang berani tidak memberi perhatian kepada jalan semasa menggunakannya.

IKLAN

Penamaan Tesla

Tesla tidak membantu dirinya dengan nama produknya. Ramai yang telah mengkritik Autopilot sebagai nama, kerana persepsi awam (palsu) ialah autopilot pesawat terbang sendiri. Sebenarnya, autopilot pesawat adalah sistem yang jauh dan jauh lebih mudah daripada Autopilot kereta Tesla, dan ia hanya berfungsi kerana di udara, anda berada sangat jauh daripada apa sahaja yang mungkin anda langgar. Itu tidak menghalang persepsi orang ramai yang salah, walaupun. Dengan FSD, ia lebih teruk. Ia belum pada tahap memandu sendiri lagi, bahkan tidak dekat, dan pastinya ia tidak "penuh". Kekeliruan ini menyebabkan Waymo berputus asa menggunakan istilah memandu sendiri untuk menerangkan produk mereka, kerana bimbang Tesla telah salah mentakrifkan istilah itu dalam fikiran orang ramai.

Tesla sebenarnya tidak memerlukan lebih banyak gembar-gembur untuk produk mereka. Mereka menjual semua yang mereka boleh buat. Adalah membingungkan bahawa mereka sengaja menggunakan nama-nama ini daripada mengecilkan dan terlebih hantar. Mereka akan menyelamatkan diri mereka banyak kesedihan - selain daripada jenis "semua publisiti adalah publisiti yang baik".

Jadi adakah OK jika Tesla akan memukul boneka bersaiz kanak-kanak?

Jawapan yang mengejutkan ialah "mungkin." Semua sistem prototaip ujian akan melakukan perkara seperti ini, dan tanpa melarang semua ujian prototaip, tidak ada cara untuk menuntut kesempurnaan walaupun dalam isu yang menggugah seperti ranap dengan kanak-kanak. Sukar untuk mencipta rejim kawal selia yang akan mengharamkan Tesla FSD yang tidak juga melarang atau memperlahankan pembangunan teknologi yang sangat penting yang akan menyelamatkan jutaan nyawa pada masa akan datang. Berjuta-juta nyawa bukanlah perkara kecil, ia akan menjadi salah satu kemajuan terbesar dalam keselamatan dalam sejarah manusia.

IKLAN

Paling banyak, kami boleh cuba mentakrifkan perkara supaya mereka yang menyelia sistem ujian tersebut memenuhi kriteria tertentu. Kami mungkin menegaskan mereka mendapat pemantauan yang lebih baik (yang Tesla lakukan.) Kami mungkin meminta mereka profesional atau lulus ujian, tetapi kemudian kami akan mencipta badan yang mentakrifkan dan menguatkuasakan ujian ini, yang akan menyusahkan. Anda boleh menjadi pengajar memandu hanya dengan lulus ujian bertulis dan mendapat sijil kesihatan yang baik, tiada ujian kemahiran langsung dilakukan.

Walau bagaimanapun, kami boleh menentukan satu set peraturan untuk siapa yang boleh menyelia sistem prototaip, dan ia mungkin menghentikan aktiviti Tesla. Tetapi untuk berbuat demikian akan jatuh ke dalam paradoks "semakin baik ia, semakin kita tidak menyukainya." Kami tidak mahu menjadikannya lebih sukar untuk menyeberangi lembah itu untuk menjadi sistem yang lebih baik. Persoalan sebenar ialah mengapa kita mahu pergi ke sana jika tiada siapa yang tercedera. Buat masa ini tidak ada laporan mengenai orang yang cedera, pastinya tidak pada mana-mana tahap yang menunjukkan terdapat lebih banyak risiko daripada pemanduan biasa. Kami tidak mahu terjerumus ke dalam perangkap mengharamkan sesuatu kerana kami mempunyai intuisi bahawa ia berbahaya. Kami hanya mahu mengharamkan perkara yang sebenarnya berbahaya.

Ada kemungkinan bahawa ujian Tesla FSD kemudiannya akan mula menjadi terlalu berbahaya. Ini boleh berlaku kerana kepuasan automasi, atau perubahan pada sistem. Adalah munasabah bahawa Tesla diminta melaporkan kepada pihak berkuasa berapa banyak insiden yang berlaku semasa ujian sistem, jadi kita boleh mengetahui jika dan bila ia menjadi berbahaya. Pendekatan O'Dowd "kita harus mengharamkan ini kerana nampaknya saya ia akan berbahaya" adalah salah, sekurang-kurangnya di Amerika Syarikat.

IKLAN

Baca dan tinggalkan komen di sini

Sumber: https://www.forbes.com/sites/bradtempleton/2022/08/25/the-argument-over-whether-tesla-fsd-will-run-over-a-child-or-dummy-child- terlepas-titik/