216回の衝突、36台の車が閉鎖高速道路で、生存率はわずか?% 36 Cars, 216 Crashes Closed Highway ADAS Test! ?% Survival!

TikTokの「懂车帝」が作ったこの番組は非常にユーモラスで、道路安全を考える仲間の皆さんにぜひ視聴をおすすめします。

秦 L の音声提示はとてもユーモラスですが、結局止まりました。しかし、漢と宋は止まらず、海鸥が一番面白く、走って止まるということです。ハードウェアとソフトウェアが同じでも、AIは異なる選択をする可能性があります。

自動運転はまだクラクションを鳴らすことがあります(問界は前方車両にハイビームを自動で点滅させることもあります)。

零跑はさらにすごく、車の底からモデルトラックを直接吹き飛ばします。:exploding_head:

共通の特徴:

  • 事故が起きる1秒前に「自動運転が終了しました、ハンドルを取ってください」と提示するのが好きで、こうすれば事故が起きても最後はドライバー自身の衝突だと言えます。:sweat_smile:

  • 衝突するくらいなら、少しでも保守的に事前に減速/ブレーキすることはしません。多くの車は夜間でも130km/hで自動運転クルーズを続けます。

見終わって、私の見解は以前と同じで、あらゆる形態の自動運転は禁止すべきです

もしかしたら、現行のモデルはまだ不完全で、訓練データが不足しているので、技術が成熟すれば良くなると言う人もいるかもしれません。

では、より保守的なルールを持つ自動運転は信頼できるでしょうか?

私はやはりだめだと思います。

  • 学習ベースの方法:訓練データの質:量、シーンの多様性、低確率だが高損害のシーンが存在すること
  • ルールベースの方法:人間にはバイアスがあり、すべてのルールを列挙することが難しく、具体的なシーンごとの分析も困難で、ルールが多すぎて結合すると予期しない結果を招くことがあります:

例えば、想像可能性は実生活の状況における確率評価に重要な役割を果たします。たとえば、冒険遠征に伴うリスクは、遠征が対処できない事態を想像することで評価されます。そのような困難が多数鮮明に描かれると、遠征は非常に危険に見えることがありますが、災害を想像しやすいことが実際の発生確率を反映しているわけではありません。逆に、ある事業に伴うリスクは、可能性のある危険が想像しにくい、あるいは単に思い浮かばない場合、過小評価されることがあります。(Thinking, Fast and Slowより)

視力が悪い人や経験不足の人、反応が遅い人など、たくさんのひどいドライバーがAIよりも運転が下手です。しかし、これらの人は運転しない方が良いと思います :laughing:

「いいね!」 3

自動駐車がうまくいくのであれば、使ってみてもいいですが、衝突することもあると聞いています。

「いいね!」 1

あるいは、自動運転の行為が保守的で制御可能になるように法律を整備すべきであり、「欸ここに隙間があるから抜けられる」ではありません。
そして、上記の基準を満たさないAIが自動運転/インテリジェントドライビングを宣伝することを禁じます。

もちろん、私に聞

「いいね!」 1

私は閉鎖環状島のエピソードだけを見ましたが、確かに大きな衝撃を受けました。以前は、アシスト運転は基本的にハンドルに手を置いたまま、システムが問題なく機能すれば良いと思っていましたが、テストの印象では、どこでもドライバーがハンドオーバーしなければならない可能性があり、最小限の判断すらできずに即座にハンドオーバーを促すことすらできません。ほとんどの場合、事故が起きた後にしかハンドオーバーを促さないのです。もしそうなら、むしろ自分で運転した方が良いです。

「いいね!」 1

車メーカー:それは間違いです。私たちは常にドライバーの命に責任を持つ姿勢で、事故にドライバーにハンドオーバーを促しています。の一秒もです。反応できなかった責任はすべてドライバー側にあります。 :sweat_smile:

「いいね!」 1