Tesla’nın Full Self-Driving Beta Sürümündeki Sorunlar
Tesla’nın Full Self-Driving (Tam Otonom Sürüş – FSD) beta sürümüne dair endişe verici bir durum ortaya çıktı. Bir araştırma grubu, bu sistemin yolundaki çocuk boyutundaki nesneleri tespit etmede ciddi sorunlar yaşadığını belirtiyor. The Dawn Project tarafından gerçekleştirilen testlerde, FSD sürüm 10.12.2 (1 Haziran’da yayımlanan en son sürüm) ile donatılmış bir Tesla Model 3 kullanıldı. Test sırasında, araca sonunda çocuk boyutunda bir manken bulunan ve iki sıra koni arasında yer alan 110 metre uzunluğunda düz bir yol verildi.
Grup, test sürücüsünün “ellerinin asla direksiyonda olmadığını” vurguladı. Yapılan testlerde yaklaşık 40 km/s hızla seyahat eden Tesla, her seferinde kuklaya çarptı. Sonuçlar üzerine Dawn Project, 100 metrelik mesafenin bir insan sürücüsü için bir çocuğu fark etmek adına fazlasıyla yeterli olduğunu belirterek, “Tesla’nın Tam Kendi Kendine Sürüş yazılımı bu basit ve güvenlik açısından kritik testte defalarca başarısız oluyor ve potansiyel olarak ölümcül sonuçlar veriyor” şeklinde bir açıklamada bulundu.
Projenin kurucusu Dan O’Dowd, konu hakkında yaptığı açıklamada, “Elon Musk, Tesla’nın Tam Kendi Kendine Sürüş yazılımının ‘muhteşem’ olduğunu söylüyor. Ancak bu doğru değil… Bu, şimdiye kadar gördüğüm en kötü ticari yazılım” ifadelerini kullandı. 1982 yılında Green Hills Software’i kuran ve yazılım güvenliğinin önemini savunan O’Dowd, Tesla’nın sürekli olarak eleştirilen bir hedef haline gelmesiyle birlikte, daha geniş siber güvenlik konuları hakkında farkındalık yaratmak amacıyla Kaliforniya’daki ABD Senatosu’na bir teklif sunmuştu. Ancak O’Dowd’un senato teklifi, Demokrat parti ön seçimlerini kaybettiği Haziran ayında sona erdi.