TỔNG QUAN VỀ XE TỰ HÀNH
Khái quát chung về xe tự hành
Xe tự hành đang thu hút sự chú ý của nhiều nhà sản xuất ô tô nhờ vào sự phát triển của công nghệ trí tuệ nhân tạo Những chiếc xe này kết hợp phần mềm để điều khiển và lái xe, mặc dù hiện tại chưa có phương tiện nào hoàn toàn tự động Tuy nhiên, đã có nhiều loại xe tự động một phần, từ những chiếc xe hỗ trợ phanh và chuyển làn đến các nguyên mẫu tự hành độc lập Công nghệ tự hành, mặc dù còn ở giai đoạn sơ khai, đang ngày càng trở nên phổ biến và có tiềm năng biến đổi hệ thống giao thông trong tương lai Mỗi hãng xe có những hướng đi riêng trong việc phát triển xe tự hành; ví dụ, Google sử dụng Lidar để nhận diện và tính toán khoảng cách, trong khi Tesla lại áp dụng radar cho các chức năng tương tự.
Mỗi công ty chế tạo xe tự hành với cấu tạo khác nhau, nhưng chúng đều hoạt động dựa trên nguyên lý chung Xe ô tô tự lái sử dụng cảm biến để nhận diện môi trường xung quanh, sau đó tín hiệu từ cảm biến được bộ xử lý trung tâm với khả năng xử lý mạnh mẽ phân tích thông qua các thuật toán phức tạp Kết quả tính toán này sẽ được chuyển thành tín hiệu điều khiển cho bộ truyền động, bao gồm hệ thống phanh và hệ thống lái, nhằm điều chỉnh hoạt động của xe.
Xe tự hành sử dụng nhiều loại cảm biến để tạo và duy trì bản đồ môi trường xung quanh Cảm biến radar giúp giám sát vị trí của các phương tiện gần đó, trong khi camera phát hiện đèn giao thông, đọc biển báo đường bộ và theo dõi người đi bộ Đối với xe tự hành trang bị Lidar, cảm biến này phát ra các xung ánh sáng để xác định mép đường và vạch kẻ làn đường Ngoài ra, cảm biến siêu âm được sử dụng để phát hiện lề đường và các phương tiện khác khi đỗ xe.
Phần mềm vi tính sẽ tiếp nhận và xử lý tất cả tín hiệu đầu vào, từ đó xác định cách thức điều khiển tín hiệu để điều chỉnh bộ truyền động và bộ phận kiểm soát tốc độ của ô tô Các quy tắc mã hóa và thuật toán điều khiển được áp dụng nhằm đảm bảo tuân thủ nghiêm ngặt luật giao thông.
1.1.2 Phân loại Ô tô tự lái là phương tiện có khả năng cảm nhận môi trường và hoạt động không cần sự tham gia của con người Chúng ta không cần phải điều khiển phương tiện bất cứ lúc nào, và trên xe cũng không bắt buộc có tài xế Một chiếc xe tự lái có thể đi đến bất kỳ đâu mà một chiếc ô tô truyền thống có thể đi đến và làm mọi thứ mà người lái xe có thể làm trong quá trình điều khiển
Hiệp hội kỹ sư ô tô (SAE) phân loại công nghệ tự lái của ô tô thành 6 cấp độ, từ cấp độ 0 (hoàn toàn phụ thuộc vào người lái) đến cấp độ 5 (hoàn toàn tự động) Các cấp độ này phản ánh mức độ độc lập của ô tô so với sự điều khiển của người lái, cho thấy sự tiến bộ trong khả năng tự lái của các phương tiện giao thông.
Cấp độ 0 là cấp độ không có khả năng tự hành, trong đó chiếc xe hoàn toàn phụ thuộc vào người lái Tại cấp độ này, người lái phải chịu trách nhiệm hoàn toàn cho mọi thao tác vận hành của xe, không có bất kỳ tính năng tự lái nào được trang bị.
Cấp độ 1 của hệ thống hỗ trợ người lái cho phép người lái và hệ thống tự động chia sẻ quyền kiểm soát xe Hệ thống kiểm soát hành trình chủ động (ADAS) hỗ trợ người lái trong việc đánh lái, phanh hoặc tăng tốc, nhưng không thể thực hiện các chức năng này đồng thời Các tính năng của ADAS bao gồm camera chiếu hậu và cảnh báo ghế rung, giúp cảnh báo người lái khi họ lệch khỏi làn đường di chuyển.
Hệ thống hỗ trợ giữ khoảng cách an toàn với các phương tiện xung quanh thông qua việc tự động điều khiển phanh và ga, tuy nhiên, người điều khiển vẫn cần duy trì kiểm soát xe Nhiều mẫu ô tô cao cấp ra mắt gần đây đã tích hợp đầy đủ các chức năng tự lái ở cấp độ cao.
Cấp độ 2 : tự hành một phần
Xe tự động cấp độ 2 được trang bị các chức năng tiên tiến cho phép thực hiện nhiều tác vụ đồng thời, khác với cấp độ một chỉ thực hiện một tác vụ tại một thời điểm Hệ thống kiểm soát hành trình chủ động có khả năng điều khiển việc điều hướng, tăng giảm tốc độ và cảnh báo chệch làn đường Tuy nhiên, người lái vẫn cần giám sát và sẵn sàng can thiệp khi cần thiết Một số mẫu xe tự động cấp độ 2 tiêu biểu bao gồm Tesla với hệ thống Autopilot, Cadillac Super Cruise, Mercedes-Benz Drive Pilot và Volvo Pilot Assistant.
Hình 1.2: Minh họa xe tự hành cấp độ 2
Cấp độ 3 của tự hành có điều kiện cho phép người lái không cần giám sát liên tục, họ có thể thực hiện các hoạt động khác như nhắn tin hay xem phim trong khi xe đang di chuyển Hệ thống tự động nhận diện giới hạn vận hành và sẽ thông báo cho người lái khi cần phải can thiệp để điều khiển xe trở lại.
Ở cấp độ tự hành 3, xe có khả năng tự phân tích và tối ưu hóa ga, phanh, và chuyển làn mà không cần sự can thiệp của người lái khi tốc độ dưới 60km/h Khi tính năng này được kích hoạt, người lái có thể thư giãn và rời chân khỏi bàn đạp ga và tay lái trong thời gian dài Tuy nhiên, khi tốc độ vượt qua 60km/h hoặc giao thông thông thoáng, hệ thống sẽ yêu cầu người lái tự điều khiển Người dùng có thể chọn tiếp tục điều khiển hoặc từ chối; nếu từ chối và bỏ qua cảnh báo, xe sẽ tự động phanh lại cho đến khi dừng hẳn trên làn đường Audi R8 là chiếc xe thương mại đầu tiên trên thế giới sở hữu khả năng tự hành ở cấp độ 3.
Hình 1.3: Audi R8 tự hành cấp độ 3
Cấp độ 4 của tự hành là cấp độ cao, nơi người lái không cần can thiệp hay giám sát xe, thậm chí không cần vô lăng Tuy nhiên, xe tự hành ở cấp độ này bị giới hạn trong một không gian và địa hình nhất định Nếu hệ thống phát hiện lỗi hoặc vấn đề không thể xử lý, xe sẽ tự động dừng lại mà không yêu cầu người lái tiếp nhận điều khiển như ở cấp độ 3.
Taxi robot trong tương lai sẽ là minh chứng rõ ràng cho sự phát triển của ô tô tự hành, hoạt động tự động trên các tuyến đường trong khu vực có địa hình xác định.
Hình 1.4: xe tự hành cấp độ 4
Cấp độ 5 của xe tự hành là mức độ cao nhất, cho phép xe tự kiểm soát hoàn toàn các chuyển động mà không cần sự can thiệp của người lái Ở cấp độ này, xe không cần vô lăng, bàn đạp ga hay bàn đạp phanh Để xác định môi trường xung quanh trong mọi điều kiện đường xá và thời tiết, xe sử dụng các cảm biến, hệ thống camera và GPS hoạt động chính xác, kết hợp với khả năng tính toán từ công nghệ trí tuệ nhân tạo.
Công tự hành của các hãng xe khác và công nghệ tự hỗ trợ lái tự động (autopilot) của Tesla
1.2.1 Công nghệ tự hành của google
Google đang tích cực tham gia vào các dự án xe tự hành, với dự đoán rằng đến năm 2025, con người sẽ không cần can thiệp khi lái xe Họ đang nỗ lực cải thiện tính năng của sản phẩm, bao gồm khả năng tự xử lý tình huống trong ùn tắc, hỗ trợ cấp cứu và lập trình đi qua các nút giao thông Đồng thời, Google cũng thiết lập một trung tâm tiếp nhận phản hồi từ người dùng để khắc phục lỗi và hoàn thiện sản phẩm.
Xe Waymo sở hữu các cảm biến tiên tiến, cho phép tầm nhìn 360 độ và duy trì khoảng cách an toàn với người đi bộ và phương tiện khác, điều mà tài xế không thể làm được Hệ thống bao gồm các tia laser ngắn và dài, có khả năng quét xa tới 300 mét.
Theo nghiên cứu của Google, việc phát triển xe tự lái yêu cầu sự kết hợp của nhiều công nghệ như bản đồ lập trình, radar, cảm biến laser và camera Mỗi xe trải qua giai đoạn thử nghiệm nghiêm ngặt và phát triển kéo dài để đảm bảo tất cả các thiết bị hoạt động đồng bộ và hiệu quả.
Trước khi triển khai công nghệ tự động hóa trên các tuyến đường, các kỹ sư cần tự lái xe và sử dụng các công cụ như máy ảnh, cảm biến và radar để ghi lại bản đồ kỹ thuật số chi tiết về đặc điểm lộ trình Việc lập bản đồ này giúp đánh dấu làn đường và biển báo giao thông, cho phép phần mềm trong xe làm quen với môi trường xung quanh và các đặc điểm của đường lái.
Những chuyến đi đầu tiên được thực hiện với sự hỗ trợ của hệ thống lái xe, chuẩn bị cho giai đoạn tiếp theo Chiếc xe hoạt động trên đường không có hệ thống hỗ trợ, chỉ sử dụng camera, cảm biến laser và radar để xác định vị trí và tốc độ của các phương tiện khác Phần mềm kiểm soát tốc độ, cùng với camera gắn trên xe, sẽ đọc và giải thích tín hiệu đèn giao thông cũng như các tín hiệu khác trên đường.
Hình 1.5: bố trí trung các bộ phận cảm biến xe tự hành google
- Cảm biến (sensors): Laser, radar và máy ảnh phát hiện các đối tượng ở mọi hướng
- Rounded shape: Tối đa hóa phạm lý nhìn của cảm biến
- Nội thất (Interior) : Được thiết kế để cưỡi, không phải để lái
- Máy tính (Computer): Được thiết kế đặc biệt để tự hành
- Pin điện (Electric batteries): Để cung cấp năng lượng cho xe
- Hệ thống dự phòng (Back - up systems): Dành cho hệ thống lái, phanh và hơn thế nữa
Các công nghệ khác biệt được sử dụng trong xe tự hành của google:
Ô tô tự hành, như được minh họa trong hình 1.6, sử dụng nhiều công nghệ tiên tiến để mang lại phương thức di chuyển thuận tiện Để cung cấp loại hình vận tải này, cần có sự đồng bộ hóa hoàn hảo giữa các cảm biến hiện đại thu thập thông tin về môi trường xung quanh, các thuật toán phức tạp xử lý dữ liệu và điều khiển phương tiện, cùng với sức mạnh tính toán để thực hiện tất cả các tác vụ này trong thời gian thực.
1.2.2 Công nghệ hỗ trợ lái tự động trên xe điện Tesla a) Giới thiệu chung
Tesla Autopilot là hệ thống hỗ trợ người lái do Tesla phát triển, lần đầu tiên được Elon Musk giới thiệu vào năm 2013 với quan điểm rằng "Autopilot là một điều tốt trên máy bay, và chúng ta nên có nó trên ô tô" Các phiên bản đầu tiên của Autopilot được phát triển cùng với Mobileye, và tất cả xe Tesla sản xuất từ tháng 9 năm 2014 đến tháng 10 năm 2016 đều trang bị phần cứng hỗ trợ Autopilot (HW1) Vào ngày 9 tháng 10 năm 2014, Tesla đã cho phép khách hàng mua trước tính năng Autopilot trong tùy chọn "Tech Package", với các chức năng như đỗ xe và lái bán tự động, mặc dù chưa được thiết kế để hỗ trợ tự lái.
Phần mềm hỗ trợ Autopilot đã được phát hành vào giữa tháng 10 năm
Vào năm 2015, Tesla đã giới thiệu phiên bản phần mềm 7.0 với mục tiêu cung cấp công nghệ tự lái Sau đó, phiên bản 7.1 được phát hành, trong đó một số tính năng đã bị loại bỏ để hạn chế hành vi rủi ro từ khách hàng Phiên bản này cũng bổ sung tính năng triệu hồi đỗ xe từ xa, cho phép xe di chuyển tới và lùi dưới sự điều khiển từ xa mà không cần người lái có mặt trong xe.
Đến năm 2016, các tính năng của xe hơi bao gồm khả năng đi bám theo làn đường, kiểm soát hành trình, tự đỗ xe, chuyển làn tự động, điều hướng bán tự động, nhận biết tình hình giao thông và triệu hồi xe từ xa Mặc dù những tính năng này hỗ trợ người lái, nhưng họ vẫn phải chịu trách nhiệm và giám sát liên tục, giúp giảm thiểu tai nạn do không cần lái xe trong thời gian dài.
Autopilot là công nghệ hỗ trợ lái tự động của Tesla, cung cấp nhiều tính năng giúp xe tự chủ một cách hiệu quả Các tính năng nổi bật của Tesla Autopilot bao gồm giữ làn đường, kiểm soát hành trình thông minh, tự đỗ xe, chuyển làn tự động và điều hướng tự động một phần Ngoài ra, hệ thống còn tích hợp các tính năng tránh tai nạn và khả năng triệu hồi, mang lại trải nghiệm lái xe an toàn và tiện lợi cho người dùng.
Mỗi chiếc xe Tesla mới được trang bị 8 camera bên ngoài, 12 cảm biến siêu âm và một máy tính tích hợp mạnh mẽ, mang lại thêm một lớp an toàn cho người điều khiển khi di chuyển Model 3 và Model Y là những ví dụ tiêu biểu cho công nghệ tiên tiến này.
Tesla Model Y, được thiết kế cho thị trường Bắc Mỹ, hiện đã chuyển sang hệ thống Tesla Vision dựa trên camera, thay thế cho các cảm biến truyền thống Hệ thống này sử dụng bộ camera tiên tiến và mạng thần kinh để cung cấp tính năng lái tự động cùng các chức năng liên quan Đặc biệt, khác với Model 3 và Model Y, Tesla Model X được trang bị thêm radar nhằm nâng cao khả năng nhận biết môi trường xung quanh.
Hình 1.7: Các thiết bị thu nhận tín hiệu trong công nghệ Autopilot
1 Một camera được gắn phía trên biển số xe phía sau
2 Cảm biến siêu âm được đặt ở cản trước và sau
3 Một camera được gắn trong mỗi trụ cửa
4 Ba camera được gắn vào kính chắn gió phía trên gương chiếu hậu
5 Một camera được gắn vào mỗi chắn bùn trước
6 Radar được gắn phía sau cản trước b) Hệ thống camera
Hệ thống 8 máy ảnh được gắn xung quanh xe với phạm vi và tầm nhìn khác nhau cung cấp các khả năng nhau:
Hình 1.8: góc chiếu và phạm vi của camera
Camera chuyển tiếp chính, được gắn sau kính chắn gió, cung cấp tầm nhìn toàn cảnh phía trước xe, giúp phát hiện các vật thể ở khoảng cách trung và xa Camera với ống kính mắt cá 120 độ có tầm nhìn 60m hữu ích cho việc nhận diện đèn giao thông và chướng ngại vật gần, đặc biệt trong môi trường đô thị Trong khi đó, camera chuyển tiếp hẹp với tầm nhìn lên tới 250m cho phép quan sát các đối tượng ở xa, rất cần thiết trong các tình huống tốc độ cao Camera chuyển tiếp chính có khả năng nhìn khoảng 150m, hoạt động hiệu quả ở tốc độ trung bình.
Camera nhìn về phía trước được trang bị hai camera gắn trên mỗi trụ cửa, cung cấp góc nhìn 90 độ và tầm nhìn tối đa 80m Hệ thống này giúp phát hiện những chiếc xe bất ngờ xâm nhập vào làn đường của bạn trên đường cao tốc, đồng thời tăng cường an toàn khi di chuyển qua các giao lộ có tầm nhìn hạn chế.
Camera nhìn về phía sau có khả năng quan sát tối đa 100m và được lắp đặt ở chắn bùn trước, giúp giám sát các điểm mù phía sau ở cả hai bên xe Thiết bị này rất quan trọng để đảm bảo chuyển làn và hòa vào dòng xe một cách an toàn.
CÁC CÔNG NGHỆ ĐƯỢC ỨNG DỤNG TRONG CÔNG NGHỆ HỖ TRỢ LÁI TỰ ĐỘNG CỦA TESLA
Lý thuyết công nghệ trí tuệ nhân tạo xử lý hình ảnh
Trong hệ thống hỗ trợ lái tự động của Tesla, camera đóng vai trò quan trọng, vì hầu hết tín hiệu đầu vào của công nghệ Autopilot đều được thu thập từ các camera Dữ liệu từ các camera này thường được xử lý qua nhiều giai đoạn khác nhau để đảm bảo tính chính xác và an toàn trong quá trình lái xe tự động.
Hình 2.1: Các giai đoạn xử lý hình ảnh
Thu nhận hình ảnh là quá trình sử dụng cảm biến, như máy ảnh, để chụp một hình ảnh và chuyển đổi nó thành một tệp hình ảnh kỹ thuật số có thể quản lý được.
Nâng cao hình ảnh cải thiện chất lượng của hình ảnh nhằm trích xuất thông tin ẩn từ đó để xử lý thêm.
Khôi phục hình ảnh giúp cải thiện chất lượng bằng cách loại bỏ các lỗi, mang lại phiên bản hình ảnh sạch hơn Quá trình này dựa vào các mô hình toán học và xác suất, cho phép loại bỏ mờ, nhiễu, thiếu pixel, lỗi lấy nét của máy ảnh, hình mờ và các lỗi khác, từ đó nâng cao hiệu quả đào tạo mạng nơ-ron.
Xử lý ảnh màu liên quan đến việc làm việc với các hình ảnh có màu sắc và các không gian màu khác nhau Tùy thuộc vào loại hình ảnh, có thể áp dụng kỹ thuật xử lý màu giả, trong đó màu sắc được gán giá trị thông qua thang độ xám.
Nén và giải nén hình ảnh là quá trình quan trọng giúp điều chỉnh kích thước và độ phân giải của hình ảnh Nén giúp giảm kích thước và độ phân giải, trong khi giải nén phục hồi hình ảnh về kích thước và độ phân giải ban đầu.
Xử lý hình thái: mô tả hình dạng và cấu trúc của các đối tượng trong một hình ảnh
Nhận dạng hình ảnh là quá trình xác định các đặc điểm cụ thể của đối tượng trong ảnh, thường sử dụng các kỹ thuật như phát hiện, nhận dạng và phân đoạn đối tượng Các giải pháp AI nổi bật trong lĩnh vực này, và sau khi hoàn thành các giai đoạn xử lý hình ảnh, bạn có thể xây dựng, đào tạo và thử nghiệm một giải pháp AI thực tế Quá trình phát triển học sâu bao gồm chu trình từ thu thập dữ liệu đến tích hợp mô hình AI vào hệ thống cuối.
Biểu diễn và mô tả dữ liệu là quá trình trực quan hóa thông tin từ hệ thống AI, giúp cải thiện hiệu suất và khả năng phân tích Đầu ra thô của hệ thống thường là các mảng số, nhưng không chứa biểu diễn dữ liệu rõ ràng Bằng cách sử dụng các công cụ trực quan hóa chuyên biệt, người dùng có thể chuyển đổi những mảng số này thành hình ảnh dễ hiểu, phục vụ cho việc phân tích sâu hơn.
Sử dụng trí tuệ nhân tạo (AI) để xử lý các tác vụ hình ảnh phức tạp đang trở thành xu hướng nổi bật Cải tiến trong AI và học máy chính là yếu tố then chốt thúc đẩy sự phát triển ấn tượng của công nghệ thị giác máy tính hiện nay.
Hầu hết các mô hình học máy hiệu quả trong xử lý hình ảnh đều sử dụng mạng nơ-ron và học sâu, giúp giải quyết các nhiệm vụ phức tạp tương tự như cách bộ não con người hoạt động Các loại mạng nơ-ron khác nhau có thể được áp dụng cho nhiều tác vụ, từ phân loại nhị phân đến phân đoạn cá thể, và việc chọn đúng loại mạng nơ-ron là rất quan trọng để phát triển giải pháp AI hiệu quả CNN, một loại mạng học sâu, được thiết kế đặc biệt cho xử lý hình ảnh nhưng cũng đã thành công trên nhiều loại dữ liệu khác Trong CNN, các tế bào thần kinh được tổ chức giống như trong não người và yêu cầu ít tiền xử lý hơn, đồng thời có khả năng tự học các bộ lọc và đặc điểm cần thiết trong quá trình đào tạo.
Mạng nơ-ron Convolutional (CNN) là một thuật toán Học sâu hiệu quả trong việc xử lý hình ảnh, cho phép gán trọng số và thành kiến có thể học được cho các khía cạnh khác nhau của hình ảnh CNN yêu cầu xử lý trước thấp hơn nhiều so với các thuật toán phân loại truyền thống, nhờ vào khả năng tự động học các bộ lọc và đặc điểm từ dữ liệu đào tạo Điểm đột phá của CNN nằm ở việc tự động trích xuất các tính năng từ các ví dụ đào tạo, giúp nâng cao khả năng phân loại và nhận diện đối tượng.
CNN được sử dụng để đánh giá đầu vào thông qua các biến đổi, với đầu vào được biến đổi bằng một bộ lọc Sự tích chập giúp mạng phát hiện các cạnh và tính năng cấp thấp ở các lớp trước, cũng như các tính năng phức tạp hơn ở các lớp sâu hơn CNN thường kết hợp với các lớp gộp và có các lớp kết nối đầy đủ ở cuối Quá trình truyền về phía trước tương tự như mạng nơ-ron vani, và hàm mất mát được giảm thiểu thông qua nhân giống ngược để đào tạo CNN.
Tích chập, lần đầu tiên được áp dụng trong xử lý tín hiệu số, đã trở thành một kỹ thuật quan trọng trong xử lý ảnh và video nhờ nguyên lý biển đổi thông tin Có thể hình dung tích chập như một cửa sổ trượt (sliding window) trên một ma trận, giúp cải thiện khả năng phân tích và xử lý dữ liệu hình ảnh Hình minh họa bên dưới sẽ giúp bạn theo dõi cơ chế hoạt động của tích chập một cách trực quan.
Hình 2.2: Minh họa cách tích chập
Ma trận bên trái là một bức ảnh đen trắng, trong đó mỗi giá trị tương ứng với một điểm ảnh, với 0 là màu đen và 1 là màu trắng (đối với ảnh grayscale, giá trị dao động từ 0 đến 255) Phép toán Sliding window, còn gọi là kernel hay filter, sử dụng ma trận filter 3x3 để nhân từng thành phần tương ứng với ma trận ảnh Giá trị đầu ra là tổng của các tích thành phần, tạo ra một ma trận (convolved feature) từ việc trượt ma trận filter và thực hiện tích chập trên toàn bộ ảnh Dưới đây là một số ví dụ về phép toán tích chập.
Hình 2.3: Hình ảnh trước khi tích chập
Ta có thể phát hiện mép biên bằng cách lấy vi phân (độ ly biệt) giữa các điểm ảnh gần nhau
Hình 2.4: Ảnh phát hiện biên sau khi tích chập
Tất cả các mô hình CNN đều có kiến trúc tương tự, bao gồm một chuỗi các lớp xếp chồng lên nhau, trong đó mỗi lớp sau khi kích hoạt sẽ tạo ra kết quả trừu tượng cho lớp tiếp theo Kiến trúc của CNN được xây dựng từ ba loại lớp chính: Lớp tích chập (convolution layer), Lớp phân chia (pooling layer) và Lớp kết nối hoàn toàn (Fully-Connected Layer) Những lớp này, còn được gọi là lớp ẩn, được sắp xếp chồng lên nhau để hình thành một kiến trúc CNN hoàn chỉnh.
Lớp tích chập (Convolution Layer) là một phần quan trọng trong cấu trúc mạng CNN Tại lớp này, các phép toán tích chập được thực hiện để xử lý dữ liệu đầu vào, bao gồm một mảng nhân tương quan (bộ lọc) và dữ liệu đầu vào Qua phép toán tương quan chéo, hai hàm này kết hợp với nhau để tạo ra một hàm thứ ba, thể hiện sự biến đổi của hình dạng hàm đầu vào Ví dụ, trong việc xử lý hình ảnh, lớp tích chập giúp trích xuất các đặc trưng quan trọng từ ảnh.
Công nghệ nhận biết vật cản sử dụng radar
Radar là hệ thống điện tử giúp phát hiện và định vị các đối tượng xung quanh, ngay cả những vật thể mà mắt thường không nhìn thấy được Công nghệ radar cho phép đo khoảng cách nhờ vào đặc tính của năng lượng điện từ bức xạ.
Trước đây, radar ô tô chủ yếu hoạt động ở băng tần 24 GHz cho ứng dụng ngắn và 76–77 GHz cho ứng dụng xa hơn Hiện nay, hầu hết các cảm biến mới phát triển đang hoạt động ở băng tần 76–81 GHz Mặc dù nghiên cứu về các dải tần cao hơn 100 GHz đang được tiến hành, nhưng việc tích hợp phương tiện và các thách thức công nghệ, đặc biệt là hiệu suất công nghệ bán dẫn, vẫn còn nhiều vấn đề chưa được giải quyết.
Từ năm 2016, xe điện do Tesla sản xuất sẽ được trang bị radar ARS410 của Continental với phạm vi 170 mét
Hình 2.12: minh hoạ radar ARS410
Radar ARS410 có khả năng nhận diện trường nhìn rộng gấp đôi so với các hệ thống quét độc lập, đồng thời tích hợp các chức năng tầm cao như Kiểm soát hành trình thích ứng, Cảnh báo va chạm phía trước và Hỗ trợ phanh khẩn cấp Radar tiên tiến này có thể phát hiện các vật thể tĩnh mà không cần đến sự hỗ trợ của camera, giúp nâng cao độ chính xác trong việc nhận biết và tách biệt các mục tiêu tĩnh.
Trường nhìn (Gần +/- 45 °, Giữa +/- 9 °, Xa +/- 4 °)
Dải tốc độ ACC Theo dõi để dừng lên đến 170km / h
Tốc độ cập nhật: 50 mili giây
Đo tốc độ tài khoản ± 0,1 km / h
Nhân viên bán thời gian Phạm vi: -40 ° đến + 85 °
Điện áp cung cấp: 12V và 24V
Tần suất hoạt động: 76 - 77 GHz
ARS410 có những tính năng và điểm nối bật như:
Trường nhìn rộng được thực hiện bởi hai lần quét độc lập
Hỗ trợ ACC Follow to Stop với một cảm biến duy nhất
EuroNCAP (Thành phố AEB / Đô thị / Người đi bộ) -> CLEPA, AEBS (Giai đoạn 2 của ECE)
Tốt hơn khả năng tách mục tiêu 6,5 ° và độ chính xác 0,2 °
Dễ dàng phân biệt giữa vật thể tĩnh và vật thể chuyển động
Tự động căn chỉnh theo cả hai hướng (ngang + dọc)
Kiểm soát hành trình thích ứng (ACC)
Cảnh báo va chạm phía trước (FCW) tuân thủ NHTSA
Hỗ trợ phanh khẩn cấp (EBA) tuân thủ EuroNCAP, UN- ECE131 (AEBS)
Gần đây, Tesla đã bắt đầu cập nhật hệ thống radar của mình bằng công nghệ cảm biến radar 4D - phoenix từ Arbe Robotics, một công ty khởi nghiệp của Israel Công nghệ radar 4D mới này sẽ cải thiện tầm nhìn của xe, tăng từ 160 mét lên 300 mét so với radar ARS410 hiện tại.
Hình 2.13: radar phoenix of Arbe
Phoenix có sự khác biệt lớn so với radar khác:
Hình 2.14: độ phân giải của phoenix
Với độ phân giải 2K sắc nét, Phoenix có khả năng phân biệt chính xác các mối đe dọa thực sự khỏi các cảnh báo giả, bất kể tốc độ, độ cao, khoảng cách, kích thước hay điều kiện thời tiết và ánh sáng xung quanh Điều này giúp đảm bảo an toàn cho người lái xe, người đi bộ và các đối tượng tham gia giao thông dễ bị tổn thương khác trên con đường phía trước.
Hình 2.15: các thông số thể hiện sự vượt trội của phoenix
1.2.2 Nguyên lý hoạt động của radar
Radar sẽ phát ra sóng điện từ
Sóng điện từ sẽ bị phản xạ khi chúng gặp bề mặt dẫn điện, như khung vỏ ô tô Nếu các sóng phản xạ này trở lại nơi phát xạ, chẳng hạn như radar, điều này cho thấy có một vật cản nằm trong hướng lan truyền của sóng.
Sóng điện từ di chuyển trong không khí với tốc độ gần bằng vận tốc ánh sáng (khoảng 3 x 10^8 m/s) Tốc độ này cho phép xác định khoảng cách giữa các đối tượng phản xạ và vị trí radar bằng cách đo thời gian mà các xung sóng truyền đi và trở lại.
Các xung được phát đi theo một đường thẳng và chỉ bị ảnh hưởng nhẹ bởi điều kiện khí quyển và thời tiết Sử dụng các ăng-ten đặc biệt giúp định hướng xung truyền, từ đó xác định được góc phương vị của các đối tượng vật thể.
Ta có công thức xác định khoảng cách:
Trong đó: R(m) là khoảng cách từ radar tới mục tiêu
Vận tốc ánh sáng (c₀ = 3 x 10⁸ m/s) và thời gian (t) được sử dụng để tính toán khoảng cách từ khi phát xung đến khi nhận lại xung Tuy nhiên, trong thực tế, các yếu tố môi trường có thể gây ra sai lệch so với kết quả lý thuyết Để xác định độ sai số, ta áp dụng vi phân toàn phần của phương trình, dẫn đến công thức dR = σR σc dc + σR σt dt, trong đó R c = t.
2𝑑𝑡 thay vi phân bằng gia số, ta được phương trình xác định sai số sau:
∆𝑐: sai số đo tốc độ truyền sóng;
∆𝑡:sai số đo thời gian
Sai số khoảng cách chủ yếu phụ thuộc vào biến đổi tốc độ truyền sóng trung bình Trong phương trình (a), tốc độ truyền sóng được giả định bằng tốc độ ánh sáng, tuy nhiên, điều này khó có thể chính xác trong thực tế do các điều kiện môi trường khác nhau Bên cạnh đó, sai số khoảng cách còn do sai số trong việc đo thời gian nhận lại xung, nguyên nhân gây ra sai số thời gian có thể xuất phát từ các biện pháp kỹ thuật đo lường.
Hệ thống Radar sử dụng tần số Doppler để phân tích vận tốc xuyên tâm và phân biệt giữa mục tiêu cố định và chuyển động Hiện tượng Doppler mô tả sự thay đổi tần số sóng phản xạ do chuyển động của mục tiêu so với nguồn bức xạ Tùy theo hướng di chuyển, độ dịch tần số Doppler có thể dương hoặc âm, phản ánh sự thay đổi tần số sóng về phía máy thu Khi mục tiêu tiến lại gần, các đầu sóng phản xạ đồng pha sẽ gần nhau hơn, dẫn đến bước sóng nhỏ hơn Ngược lại, mục tiêu di chuyển ra xa sẽ tạo ra các đầu sóng phản xạ đồng pha với bước sóng lớn hơn.
Khi xem xét một xung với độ rộng τ(s) hướng tới mục tiêu di chuyển với vận tốc v, ta có thể tính khoảng cách d mà mục tiêu đã di chuyển trong thời gian ∆t bằng công thức d = v x ∆t Thời gian ∆t là khoảng thời gian giữa hai xung khi xung trước chạm vào mục tiêu và xung sau tiếp cận Do xung truyền đi với tốc độ ánh sáng, khoảng cách mà sườn xung sau đã di chuyển là cτ - d.
Từ (b) và (c), suy ra: d = 𝑣𝑐 v+c τ (d) sau khoảng thời gian ∆𝑡, sườn xung trước đã di chuyển về phía radar một khoảng s: s = c x ∆t (e)
Hình 2.16: minh họa tần số xung phát xạ, xung phản xạ
Do đó, độ rộng xung phản xạ bay giờ là τ’, hay L(m ):
L = cτ’ = s – d(f) Thay thế (c) vào (d) và (d), (e) vào (f) sẽ cho kết quả: cτ’ = c cτ − d c - 𝑣𝑐 v + c τ, từ đó suy ra τ’ = 𝑐 − 𝑣 c + v τ Kết luận rằng v = τ − τ’ τ + τ’ c (g), trong đó v là vận tốc của đối tượng được theo dõi, τ’ là độ rộng của xung phản xạ và τ là độ rộng của xung phát xạ.
Radar theo dõi có khả năng xác định vận tốc của vật cản dựa vào độ rộng của xung phát xạ và xung phản xạ Khi thời gian xung phát và phản xạ bằng nhau (τ’ = τ), vận tốc (v) sẽ bằng 0, cho phép radar phân biệt giữa các đối tượng tĩnh và động.
Phương trình (g) chỉ áp dụng cho các đối tượng có đường chuyển động đi qua radar Để tính toán vận tốc của các đối tượng chuyển động theo những phương khác nhau, tần số Doppler được sử dụng.
Nhận biết vật cản bằng cảm biến siêu âm
Xe điện của Tesla và các loại xe tự hành khác sử dụng cảm biến để nhận diện môi trường xung quanh, với mỗi loại cảm biến đảm nhiệm một chức năng riêng Để tối ưu hóa chi phí cho xe, Tesla trang bị các cảm biến một cách hợp lý.
Xe được trang bị 12 cảm biến siêu âm xung quanh, giúp hỗ trợ đỗ xe và cảnh báo va chạm Cảm biến hoạt động bằng cách phát ra sóng âm thanh tần số cao, truyền trong không khí với tốc độ âm thanh Khi sóng âm gặp vật cản, chúng sẽ phản xạ trở lại cảm biến Vi điều khiển sẽ tính toán khoảng cách đến mục tiêu dựa trên thời gian từ khi phát tín hiệu đến khi nhận tín hiệu phản hồi.
Hình 2.18: Nguyên lý hoạt động cảm biến siêu âm
Việc phát hiện vật cản và đo khoảng cách đến vật cản dựa vào sự phản hồi của sóng siêu âm và thời gian phản hồi của tín hiệu phát ra Sóng siêu âm được truyền trong không khí với vận tốc được tính theo một công thức xác định.
Công thức tính toán vận tốc truyền âm trong không khí thường được quy ước là 343 m/s Khi một cảm biến phát ra sóng siêu âm và nhận lại sóng phản xạ, khoảng thời gian từ khi phát đến khi thu được sử dụng để xác định quãng đường sóng đã di chuyển Quãng đường này bằng hai lần khoảng cách từ cảm biến đến chướng ngại vật theo hướng phát sóng Khoảng cách từ cảm biến đến chướng ngại vật được tính dựa trên nguyên lý thời gian ánh sáng (time of flight - TOF).
Cảm biến siêu âm hoạt động dựa trên nguyên lý time of light, yêu cầu phải hướng vuông góc với bề mặt chướng ngại vật để đo khoảng cách chính xác Tuy nhiên, do bề mặt chướng ngại vật thường không phẳng, tia phản xạ có thể không tương ứng với các góc tới, dẫn đến năng lượng phản xạ thấp hơn Mặc dù vậy, ở một khoảng cách nhất định, cảm biến vẫn có thể nhận diện tín hiệu phản xạ, nhưng kết quả đọc được sẽ bị lệch do góc mở lớn của cảm biến.
CAN Bus
Xe tự hành hoạt động dựa trên tín hiệu từ các cảm biến như camera, cảm biến siêu âm và radar Những tín hiệu này được xử lý bởi một siêu máy tính, sau đó phát ra tín hiệu điều khiển tới các bộ phận chấp hành như hệ thống lái và hệ thống phanh Các nhà sản xuất ô tô sử dụng mạng truyền CAN bus để giao tiếp giữa hệ thống cảm biến, siêu máy tính và cơ cấu chấp hành.
Hình 2.20: mạng giao tiếp trên ô tô 1.4.1 giới thiệu chung
Controller Area Network (CAN) là một giao thức giao tiếp nối tiếp hiệu quả, được thiết kế đặc biệt cho các hệ thống điều khiển thời gian thực phân tán Với khả năng ổn định cao, bảo mật tốt và khả năng chống nhiễu tuyệt vời, CAN là sự lựa chọn lý tưởng cho các ứng dụng yêu cầu độ tin cậy và hiệu suất trong môi trường khắc nghiệt.
Mạng CAN, được phát triển bởi Robert Bosch vào giữa những năm 80, đã đáp ứng nhu cầu ngày càng cao về an toàn và tiện nghi trong ngành công nghiệp ô tô Nó giúp giảm ô nhiễm và tiêu thụ năng lượng bằng cách tối ưu hóa các hệ thống điện tử như chống trượt bánh xe, điều khiển động cơ và điều hòa nhiệt độ, đồng thời giảm thiểu dây dẫn phức tạp và tiết kiệm chi phí sản xuất Ngay từ khi ra đời, mạng CAN đã nhanh chóng được chấp nhận và ứng dụng rộng rãi trong chế tạo ô tô và xe tải, nhờ vào tính hiệu quả, ổn định, đơn giản và chi phí thấp Mạng CAN có khả năng truyền dữ liệu lớn trong thời gian thực và hoạt động ổn định trong nhiều môi trường khác nhau, vì vậy nó cũng được ứng dụng trong nhiều ngành công nghiệp khác như máy nông nghiệp, tàu ngầm, dụng cụ y khoa và máy dệt.
Ngày nay, CAN đã được chuẩn hóa thành tiêu chuẩn ISO11898 Hầu như mọi nhà sản xuất chip lớn như: Intel, NEC, siemens, Motorola, Maxim
IC, Fairchild, Microchip, Philips, Texas Instrument, Mitsubishi, Hitachi, và STMicro đều sản xuất chip CAN hoặc tích hợp CAN vào các vi điều khiển Sự hỗ trợ từ nhiều nhà sản xuất chip đã làm cho việc thực hiện chuẩn CAN trở nên dễ dàng hơn bao giờ hết Điểm nổi bật của chuẩn CAN là tính ổn định và an toàn, nhờ vào cơ chế phát hiện và xử lý lỗi mạnh mẽ, giúp phát hiện hầu như tất cả các lỗi trong thông điệp CAN.
Hình 2.21: minh hoạ mô hình mạng CAN
Mạng CAN sử dụng một đường dây dẫn đơn giản để giảm thiểu hiện tượng đội tín hiệu, với việc truyền dữ liệu qua cặp dây CAN H và CAN L Mỗi đầu của đường dây bus được kết thúc bằng điện trở 120 ohm, có giá trị tối thiểu là 108 ohm và tối đa là 132 ohm.
Mạng CAN được hình thành từ một nhóm các nodes có khả năng giao tiếp với nhau Quá trình giao tiếp này diễn ra thông qua việc truyền và nhận các gói dữ liệu, còn được gọi là message Mỗi message trong mạng CAN được gán một ID duy nhất, giúp xác định mức độ ưu tiên của nó.
Hình 2.22: mô hình mạng CAN
Tiêu chuẩn ISO11898 định nghĩa hai lớp Physical layer và Data link layer.
Lớp Vật lý (Physical layer) xác định cách biểu diễn và thu nhận bit 0 và 1, cũng như quy trình định thời và đồng bộ Trong khi đó, lớp Liên kết dữ liệu (Data link layer) được chia thành hai phần: Điều khiển liên kết logic (Logical Link Control - LLC) và Điều khiển truy cập môi trường (Medium Access Control - MAC), có nhiệm vụ định nghĩa khung truyền (frame) và các nguyên tắc phân quyền (arbitration) nhằm tránh tình huống hai thiết bị Master truyền đồng thời.
1.4.2 các cơ chế giao tiếp mạng CAN Đặc trưng của CAN là phương pháp định địa chỉ và giao tiếp hướng đối tượng, trong khi hầu hết các hệ thống bus thường khác đều giao tiếp dựa vào địa chỉ các trạm.Mỗi thông tin trao đổi trong mạng được coi như một đối tượng , được gắn một mã số căn cước.Thông tin được gửi trên bus theo kiểu truyền thông báo với độ dài có thể khác nhau
Trong mạng CAN, các thông báo không được gửi tới một địa chỉ cụ thể mà bất kỳ trạm nào cũng có thể nhận theo nhu cầu Mỗi thông báo được phân biệt qua mã căn cước (IDENTIFIER), không chỉ định địa chỉ đích mà thể hiện ý nghĩa dữ liệu Nhờ vào phương thức lọc thông báo (message filtering), các trạm có thể tự quyết định tiếp nhận và xử lý thông báo, cho phép nhiều trạm nhận cùng một thông báo và phản ứng khác nhau Một trạm có thể yêu cầu dữ liệu từ trạm khác bằng cách gửi khung REMOTE FRAME, và trạm cung cấp thông tin sẽ gửi lại khung DATA FRAME với mã căn cước tương ứng Cơ chế giao tiếp hướng đối tượng của CAN không chỉ đơn giản mà còn linh hoạt, cho phép bổ sung hoặc loại bỏ trạm mà không cần thay đổi phần cứng hay phần mềm của các trạm khác Trong mạng CAN, đảm bảo rằng một thông báo sẽ được tất cả các trạm quan tâm tiếp nhận đồng thời hoặc không có trạm nào tiếp nhận, với tính nhất quán dữ liệu được duy trì qua các phương pháp gửi đồng loạt và xử lý lỗi.