로보택시로 가는 길
크레딧:
카즈 반스 (사이버 로프트), 미국 해군 참전 용사이자 콘텐츠 제작자. 그를 팔로우하세요. 유튜브 채널.
Kaz's에서 쇼핑하세요 여기 지원하다
Robotaxi 또는 Tesla가 Cyber Cab이라고 부르는 것은 수년 동안 논의의 주제였습니다. 간단히 말해서, 이것은 머지않은 미래에 대규모로 유료 승객을 수송할 자율 주행 차량 시스템입니다.
라이드셰어에서 일하고, 확고한 기술/과학 애호가인 저는 2021년 10월 테슬라의 FSD 베타 프로그램에 참여하게 되었을 때 제가 무엇을 하고 싶은지 정확히 알고 있었습니다. 제 임무는 간단하면서도 벅찼습니다.
Cyber Cab이 실제로 실현되는 날까지 FSD의 진행 상황을 기록하고 제시합니다.
2021년 10월 FSD 베타 버전 10.2부터 저는 바로 그 작업을 해왔고 수년간 온라인 커뮤니티와 공유해 왔습니다.
RoboTaxi 결과는 FSD v11.4.4부터 현재 v12.3.6까지 6가지 버전에서 수행된 여행 수량(파란색)과 성공률(노란색)을 보여줍니다.
성공은 운전자가 여행을 완료하기 위해 개입해야 했는지 여부에 따라 결정됩니다. 개입이 필요했다면 여행은 실패가 될 것입니다. www.teslafsdtracker.com/CYBRLFT
RoboTaxi Results를 담은 이 이미지는 제가 Elias Martinez와 협력하여 X 플랫폼에서 수집한 데이터를 수년간 수집하고 제시한 결과물입니다. 저희의 목표는 항상 FSD의 성과에 대한 객관적이고 철저한 관점을 방대한 Tesla 커뮤니티 내부와 외부의 더 많은 청중에게 제공하여 이 급진적인 기술의 개념 증명과 잠재력을 보여주는 것이었습니다.
이와 관련하여 현재 FSD 감독 시스템의 버전 12는 이전 버전의 평균 성공률을 ~50%에서 이 버전의 흥미로운 ~83%로 끌어올리는 인상적인 도약을 이루었습니다. 이는 테슬라가 이전 전략을 완전히 폐기하고 순수하게 비디오로 훈련된 엔드투엔드 신경망에 집중하기로 한 큰 선택에 신빙성을 더합니다. AI 기술의 급속한 발전 속도와 수년에 걸쳐 FSD의 실제 세계 AI 적용에서 테슬라의 객관적인 선두를 차지한 것을 감안할 때 이 위험은 올바른 움직임이었던 것으로 보입니다.
Causation Donut은 고객과 함께 또는 고객 없이 여행하는 동안 개입하는 이유를 설명하여 시스템 실패의 원인을 더 잘 분류합니다. 여기서 보는 것은 버전 12.3.6에서 분리되는 구체적인 원인입니다.
도넛의 색상은 하단에 보이는 라벨과 연관되어 있어 FSD Supervised의 각 포인트 릴리스를 비교할 때 최대한 간단하게 볼 수 있도록 해줍니다.
www.teslafsdtracker.com/CYBRLFT
오랫동안 사랑받아 온 Causation Donut은 RoboTaxi Results 수치에서 볼 수 있는 결과로 이어진 실패의 배후에 정확히 무엇이 있는지 설명하는 데 도움이 되었습니다. 시간이 지나면서 Elias와 저는 이러한 수치를 제시할 때 불필요한 잡음이나 혼란을 피하기 위해 범주를 수정하고 단순화하기 위해 함께 작업했습니다.
이 시점에서 이러한 분리의 심각도에 대한 명확한 구분을 하는 것이 중요하다고 생각합니다. 여러분 중 일부는 Critical Disengagements와 Non-Critical Disengagements라는 용어에 익숙할 것입니다. 가능한 한 간단하게 하기 위해, 저는 이 두 가지의 차이를 다음과 같이 정의했습니다.
중요한 분리
- 인명이나 재산의 잠재적 피해를 막기 위해 취한 조치.
- 불법적인 운전(신호등, 정지 신호 등)을 방지하기 위한 조치가 취해졌습니다.)
- 시스템 장애(강제적 레드 휠 분리)로 인해 취해진 조치입니다.
비중요한 분리
- 그 외의 모든 것
이를 염두에 두고 도넛에서 불편함, 인간, 지도, 안전, 기술 문제, 스테이징, 시스템 오류, 시스템 제한을 볼 수 있습니다. 이 중에서 안전과 시스템 오류는 중요한 범주이고 나머지는 중요하지 않은 분리입니다.
안전은 인명이나 재산 피해와 관련하여 첫 번째 항목에 속하고, 시스템 오류는 세 번째 항목인 시스템 고장에 속합니다. 시스템 고장은 자동차가 운전자에게 즉시 운전을 지시하는 것으로, 그 이유는 거의 알려지지 않았지만 견인력 상실이나 태양광이 시스템 카메라에 닿아 눈부신 빛 반사가 발생하는 것과 같은 이유가 있을 가능성이 높습니다.
FSD에서 이러한 해제의 대부분은 "중요하지 않음" 범주에 속하지만, 테슬라가 각 업데이트에서 계속 집중하는 매우 중요한 개선 사항입니다. 목표는 이러한 레이블의 대부분이 가능한 한 자명하게 설명되도록 하는 것이지만, 저는 RoboTaxi 보고서에서 훨씬 더 자세히 설명합니다.
청중과 많은 대화를 나눈 결과, 실제 유료 고객의 피드백이 Cyber Cab의 재방문객 가능성을 가늠하는 데 매우 중요하다는 점이 점점 더 분명해졌습니다.
이 이미지는 Uber와 Lyft에서 일반적으로 사용하는 1~5점 시스템을 기반으로 한 버전 12 FSD Supervised에서 조사한 평가를 보여줍니다.
www.teslafsdtracker.com/CYBRLFT
이 시스템을 테스트하는 데 소요된 시간 동안, 저는 1,700회 이상의 전담 "RoboTaxi" 등급 여행을 완료했으며, 픽업에서 드롭오프까지 시스템 역량을 관찰했고, 향후 사용을 위해 시스템 성공의 큰 구성 요소를 놓치고 있었다는 것이 분명해졌습니다. 이 구성 요소는 고객 만족입니다.
현재의 "스마트 소환" 기능에 붙일 수 있는 속임수나 파티 트릭은 일상 생활에 서비스를 통합할지 여부를 결정해야 하는 간단하지만 중요한 요구 사항이 있는 고객의 세계에서는 본질적으로 쓸모가 없을 것입니다. 이를 염두에 두고, 저는 버전 12 FSD Supervised를 사용하는 동안 고객 설문 조사를 시작하여 그들이 경험에 대해 어떻게 생각하는지 알아보았고 그 결과는 매우 안심이 되었습니다.
보시다시피 지금까지 191명의 사용자가 5성 수준으로 경험을 평가했으며, 4성 사용자보다 훨씬 많았고 가장 빈번한 댓글은 "당신이 말하지 않았다면 스스로 운전한다는 것을 알 수 없었을 것입니다"였습니다.
이러한 결과를 통해 Tesla의 FSD Supervised는 이미 저와 같은 인간 라이드셰어 운전자와 동등한 수준에서 성과를 보이고 있으며, 짧은 시간 내에 이러한 운전자 대부분보다 더 우수해질 것입니다. 최소한 이 FSD Supervised 시스템에 의해 증강된 운전자는 고객 관리 및 만족의 정점에 도달할 것이며, AI를 사용하는 운전자가 사용하지 않는 운전자를 파괴할 것이라는 것을 다시 한 번 증명합니다.
*테슬라의 FSD Supervised 시스템은 완전 자율 주행이 아니며 운전자는 항상 경계하고 인수할 준비가 되어 있어야 합니다. 차량 운전자는 Tesla FSD Supervised의 부적절한 사용으로 인해 발생하는 모든 문제에 대해 책임을 져야 합니다.
댓글 남기기
이 사이트는 hCaptcha에 의해 보호되며, hCaptcha의 개인 정보 보호 정책 과 서비스 약관 이 적용됩니다.