ABOUT ME

-

Today
-
Yesterday
-
Total
-
  • 인텔 모빌어린이 (Intel Mobileye) CES 2020 (자율주행 / ADAS / 카메라 / 컴퓨터 비전 알고리즘 / VIDAR / 로보택시 / REM / EyeQ 칩) 대박이네
    카테고리 없음 2020. 2. 5. 13:07

    >


    ​ ​ ​ 하나. 모빌 아이(Mobileye)​(하나) 작은 기업 개요 하나 999년에 설립된 이스라엘에서 설립된 비전(Vision)기반 지능형 운전자 보조 시스템(ADAS)서비스 제공 업체 ​-20개 4년 뉴욕 증권 거래소에 상장.이스라엘 작은 기업이 추진한 작은 기업유출(IPO) 사례의 가장 큰 성공을 거두어 유명. 20하나 7년 인텔이 약 하나 7조 6,000억원에 인수. 모빌 아이의 인수는 인텔의 역사를 통해서 가장 성공적인 선택 중 하봉잉로된 것 ​-핵심 기술인 지능형 ADAS는 전방 충돌 경고(FCW), 보행자 충돌 경고(PCW), 차선 이탈 경고(LDW), 지능형 전조등 제어(IHC), 속도 제한 표지(SLI)등을 지원 ​ 창업 초기 BMW, GM, 볼보 등 완성 차 업체에 주문자 상표 부착 방식(OEM)에서 제품을 지에콤헷우 본인 2007년부터는 에키프부터 시장에도 진출하고 독자 브랜드 키위, 구축 ​-과거 테슬라 또 모델 S에 천장률 주행 모든 자동 떼나 롯데(Autopilot)기능을 실현하는, 모빌 아이의 비전의 가운데 컴퓨팅 칩'EyeQ 3'을 치에텍헷우 본인 오토 파하나롯에 오류가 생성하면서 운전자 사망 문재가 생성. 이 뭉지에우에 현재 파트 너의 관계 종료 ​-20하나 9년 ADAS시장의 큰 성장에 힘입어 매출액이 하나 0억달러에 육박했고 최근 20하나 9년 3분기 매출은 전년 동기 대비 20퍼.센트 이상의 성장


    >


    <출처:TECH M>​ ​ ​(2)의 주요 서비스-FCW(Forward Collision Warning):전방 차량 충돌 경보 ​-HWM&Warning(Headway Monitoring&Warning):차간 거리의 모니터링과 경보 ​-PCW(Pedestrian Collision Warning):보행자 추돌 경보 ​-LDW(Lane Departure Warning):차선 이탈 경보 ​-SLI(Speed Limit Indication):제한 속도 표지판 인식과 속도의 국물이 너무 경보 ​-REM(Road Experience Management):EyeQ 4 chip, GPS, G-Sensor통신 모듈이 내장된 Mobileye 8 Connect에 의해서 고화질지도를 생성. 밑으로 더 자세한 설명 ​ ​ ​ ​ 2. 인텔 모빌 아기 CES 2020​-모빌 이야기는 CES 2020에서 최근까지 누적 5,400만개 이상 출하된 '에키큐(EyeQ)'칩을 포함하고 인텔에서 가장 빠르게 성장하는 비즈니스인 자율 주행 기술에 대해서 발표 ​-모빌 이야기는 현재 레이더와 라이다망을 탑재한 방법으로 다만 카메라만을 탑재한 2개의 다른 방법으로 자율 주행 기술을 개발하고 ​ 이 날, 인텔은 카메라 센서만 장착한 자율 주행 자동차가 도로를 주행하는 모습이 담긴 무표은지프 23분짜리 동영상을 공개. 영상에서 차량은 복잡한 교차로, 보행자나 배달차량 등이 밀집한 환경 등에서도 운행에 성공 - 기타 자율주행을 위한 컴퓨터 비전, 매핑, 운전자 보조시스템(ADAS), MaaS(Mobility-as-a-Service)에 관한 기술과 개념에 대한 설명 - 실적도 급속하게 성장하고 있어 향후 데이터 수익화나 로보택시 등으로 사업을 확장할 것이라고 밝혔다.


    >


    <출처:Mobileye>​ ​ ​ ​ 3. 카메라 센서 비전 인식 ​-모빌 아이는 자율 주행에 두개의 각각 다른 방식으로 접근. 일은 카메라만, 다른 일은 레이더와 라임만 사용해 비전인식-특히 자율주행을 위한 카메라 트렌드는 앞쪽에만 설치하는 것에서 사방을 감싸는 방식으로 변천하고 있다. 한편, 비용은 불과 수백달러에 불과 ​-카메라만 사용하는 방식의 자율 주행 차량이 센싱 실수가 발생할 확률은 한 0,000시 테러단 한건이 목표. 이는 매일 2가끔 운전하는 것입니다로 했을 때 일 0년에 한번씩 ​-최종적으로는 라임과 레이더만 사용하는 방식과 결합하는 레버와 000만 때 테러단 한건의 오류 확률을 달성할 것으로 기대 ​


    >


    <출처:Mobileye>​ ​ ​ ​ 4. 컴퓨터 비전(Computer Vision)​(하나)카테고리별 분류밖에)로드 사용자(Road Users):자동차, 보행자, 자전거, 스쿠터 등 도로 위에서 움직일 수 있는 대상자를 인식. 그들은 정의함으로써 매우 다양 ​ 2)로드 지오 메트리(Road Geometry):차로만 아니라 도로 표면의 종류 및 상태, 각도, 타카 moning이 각 차선의 의의 등을 이해 ​ 3)로드 바운더리(Road Boundaries):커브, 가드레일 등 주행 가능한 도로인지 경계를 구분 ​ 4)로드 시맨틱(Road Semantics):도로의 위나 주변의 신호등이나 표지는 보행자의 움직이는 차량의 캄파 구의 등을 인식하고 그 의의가 무엇인지 이해. 특히 수신호 같은 보행자의 제스처로 운행이 가능한지 멈춰야 하는지 자결하기 때문에 이런 움직임의 의의를 이해하는 것은 중요함.


    >


    <출처:Mobileye>​ ​ ​(2)기술 구성할지)Detection(감지):픽셀 단위로 차량 및 사물의 외형(Appearance), 원근감 이쟈싱 움직이는 등을 통해서 3차원과 같은 깊이(Geometry)확인 ​ 2)Measurements(측정):차량을 정확히 제어하기 위해서는 모든 것이 3차원에 위치하고 있어야 하기 때문에 카메라를 통해서 입력을 받은 2D이미지를 3D로 변환 ​ 3)Internal Redundancy:위에서 내용한 4개의 카테고리 내에서는 복수의 컴퓨터 비전 엔진이 독립적으로 실행된다. 다시 내용 해석하여 자신의 크고 깊은 알고리즘을 사용하는 것이 아니라 서로 영향을 주지 않는 각각의 알고리즘을 여러 번 사용하여 감지 및 측정 기능을 구현


    >


    <출처:Mobileye>​ ​ ​ ​ 5. 컴퓨터 비전 알고리즘의 종류 ​(1)감지 알고리즘, 예를 들면 이하의 또 흰색 버스를 인식하기 때문에 즉 로드 사용자 범주에서 감지 기능을 위한 6개의 각기 다른 엔진(알고리즘)을 사용 ​ 1)3DVD:전통적인 패턴 인식의 비결. 먼저 전체 이미지를 스캔하고, 그 안에서 인식이 필요한 대상을 찾아 박스화하고, 외형(appearance)을 확인한 담신경망을 통해 학습. 차의 문이 열리고 있을 때는 그 안에서 갑자기 사람이 밖으로 나올 수 있기 때문에 차 문이 열리고 있는 상태나 휠체어, 유모차 등 특별한 경우도 인식할 수 있도록 학습 ​ 2)Full Image Detection: 그렇게 버스가 가까이 붙어 있고 크게 보이자 같은 외형에서도 박스화하기 어렵기 때문에 다른 방식으로 접근하는 알고리즘 ​ 3)Top View FS(Free Space):이제 녹색 공간은 운전 가능한 공간인 무료 space에서 운전 불가능한 공간과 구분 ​ 4)VIDAR:라이더가 없는 카메라를 사용한 알고리즘. 사람은 삼각 측량을 통해서 눈에 들어간 2차원 이제 일이 3차원에서 느끼는 것처럼 차량을 둘러싼 12대의 카메라(원거리용 8대, 주차용 4대)도 삼각 측량을 구현하고 3D좀 일이 발생(테슬라와 같은 방식). 거기서 얻은 데이터를 라이다. 프로세싱 알고리즘에 주입하여 인공지능 신경망 학습※테슬라비전 인식비결 참고


    ​ ​ 5)Scene Segmentation:보행자, 자동차 도로 그와잉무 등 각 대상을 같은 부류별로 구분 ​ 6)Wheels​


    >


    <출처:Mobileye>​ ​ ​(2)측정 알고리즘 1)Map World Model:REM기술을 통해서 HD맵 생성 ​ 2)Visual Road Model:HD맵을 활용하여 도로의 형태, 자신의 깊이, 각도, 타카 moning이 등을 구분하고 3차원 정보를 얻는 알고리즘 ​ 3)Range Net:사물의 외형을 통해서 길이 자신의 금과 같은 범위 측정 ​ 4)VIDAR​ ​ ​-이들 알고리즘을 통해서 온 결과치를 최종적으로 전체 통합하고 자율 주행의 의사의 판정 ​-예를 들어 자율 주행 차량이 판단하므로 그 차가 떠받치고 있는 상황이 주차된 차처럼 장어 린이 물과 소견하고 이를 피하고 안 갈 것인지 아니면 교통 체증과 잘 기다리며 천 천천히 가야 할지 판단하기는 매우 혼란스럽다 문제. 이를 해결하기 위해 단순히 앞에서 서술한 것뿐만 아니라 다른 알고리즘이 가져온 다양한 정보를 종합하여 어떤 상황인지 판단하여


    >


    <출처:Mobileye>​ ​ ​ ​ 6. 로봇 택시&에 저 한개(Agile)​-모빌 아이의 주장은 자율 주행의 활용 사례는 가장 타이틀 나 먼저 로보 택시이다. 하나반 사람들이 자율주행차량을 구매할 수 있게 될 때보다 몇 년 동안은 기(気)로 로보택시 비즈니스가 시행될 것으로 예상-이것은 스토리너이자 비즈니스이기 때문에 남들만큼 주행성능이 좋아야 성공할 수 있다. 따라서 자율주행은 안전할 뿐만 아니라 남들만큼 민첩함과 재빠름이 중요-아래 예루살람에서 시행된 자율주행 영상을 보면 T자형 도로에서 모빌 어린이 차량은 비보호자 회전을 시도한다. 하지만 본인 차가 멈추지 않자 모빌의 어린이 차는 멈춰서기를 반복하며 조금씩 전진. 결스토리의 빈틈을 만들어 내고 직진차가 오기 전에 커브에 진입해 자절성공-모빌 어린이는 자율주행차가 이처럼 형세에 맞게 유연하고 기민한 주행능력까지 갖춰야 살아남는다. 설명


    ​ ​ ​ ​ 7.REM(Road Experience Management)​-복수의 차량에서 정보를 모으는 크라우드 소싱을 활용하고 고화질의 지도를 발생하는 기술 ​-L2+ADAS가 탑재된 차량이 주행하면서 들어온 이미지 속의 중요한 정보만을 추출해서 클라우드의 서버에 전송 서버에는 인텔 고성능 서버용 CPU의 AI가속 기능을 활용하고 이를 종합하고 고화질의 지도를 발생한 뒤 다시 각 차량에 전송. 1킬로당 약 10킬로바이트에 불과했던 초등 저 대역 폭 데이터 업로드를 통해서 실시간으로 가까운 성능을 실현. 이런 과정은 전체 자동화되고 시간당 45마일의 지도를 발생 ​, 최근 16,000회 이상의 주행 데이터를 활용하고 라스 베이거스 나 400km이상의 고화질 지도 발생. 특히 네바다 땅은 도로 지도를 발생하는데 24시간도 안 걸리는 썰매 타기. 이 지도는 만개의 표지판, 만곳의 신호나 가로등 같은 기둥, 1,500km이상의 중앙선을 포함 수천개의 도로 주변 사물에 대해서 센티 미터 수준의 정밀도를 제공 ​-BMW, NISSAN, 폴크스바겐과 이미 2년 전체 부지, 이를 실시, 모빌 아이는 하루에 600만 km의 주행 데이터를 받아 왓소리. 다음 분기까지 유럽 전역, 올해 말까지 미국 전역에 대한 도로 지도를 만들 수 있을 것으로 예상 ​-추가로 올해 3개 완성 차 업체와 100만대의 차량이 데이터를 보내기로 계약 체결. 이렇게 2022년까지 총 1,400만대의 차량에서 데이터를 받을 것으로 보이​-차이나 땅 역시 매핑을 돌리고 칭화 대학의 유니 그룹과 조인트 벤처를 만들어 데이터 수집 중.차이나전기차 회사 인왕(NIO)은 차이나 회사 중 모빌 어린이 자율주행 시스템을 소비자용 차량에 가장 먼저 탑재한 기업.2019년 말 인왕산에서 자율 주행 Lv4설계 수주를 받았으며 2022년 솔루션을 탑재한 차량의 발매 예상 ​


    >


    <출처:Mobileye>​ ​ ​ ​ 8.EyeQ칩 ​(1)개요-모빌 애기의 완전 자율 주행을 위한 비전의 한가운데 컴퓨팅 칩. 카메라 기반 리드하는 것의 처리 알고리즘과 ADAS 기능이 이 프로세서상에서 작동 - 두 개의 대, 즉 두 개의 칩으로 구성되어 잇우나푸지안아 위에서 설명한 비전 알고리즘들은 모두 하나의 칩만으로 처리된 것( 다른 1프지앙아은 컴퓨팅 파워가 부족한 만일의 사태에 대비한 것으로 추측)​-모두 칩 크기도 90mm스퀘어에서 제온(인텔의 서버용 프로세서)와 같은 수백밀리 이상의 다른 제품보다 아주 작은 사이즈 ​ ​ ​(2)개발의 현황-2017년 12월 TSMC를 통해서 7 나쁘지 않으면서 공정을 도입하고 EyeQ 5제작 완료, 2018년 이야기 정식인 사무실에 ​-현재 챠랴은 단 2개의 EyeQ 5칩으로 2022년에는 6개가 적용된다 것으로 예상. 사실상 6개까지는 필요가 오프우나프지앙어 만일에 대비하여 위험을 막기 위해서 충분한 컴퓨팅 파워를 탑재 ​-2020년 EyeQ 6샘플의 출시가 예상된다. 2023년에는 챠랴은 단 단 1프지앙아의 EyeQ 6칩 장착 ​-모빌 이야기는 이 같은 자율 주행 시스템 비용을 10,000~15,000달러 수준에서 2025년까지 5,000달러 이하로 낮출 것이 목표. 그것은 일반 소비자가 지불하기에 합리적인 비용이라는 사고방식


    >


    <출처:Mobileye>-이날 전반적인 발표를 듣고 느낀 점은 테슬라와 마찬가지로 비전인식 기술이 라임니다와 같은 높은 하드웨어를 배제하고 점차 소프트웨어의 한가운데로 단순화되고 있다는 점. 삼성의 갤럭시폰과 달리 구글의 픽셀폰이 자신의 아이폰 역시 고가의 카메라 모듈을 끼워 넣기보다는 인공지능을 통해 카메라 성능을 향상시키는 것 역시 마찬가지이고, 마찬가지로 하저신은 자율주행을 위한 비전기술이 갈수록 세분화되고 있다는 점. 보행자도 어떤 보행자, 어떻게 움직이는 보행자, 도로도 하나의 미세한 각도에서 고저변화까지 측정하면서 더 정확성을 높이고 운전 중 발생하는 모든 위험을 일일이 제거하며 자신감을 보인다. 이 역시 한 사람의 인공지능 신경망을 주제별로 압축하는 소프트웨어적인 방법으로 해결하고 자신감을 갖고 있어 소프트웨어의 중요성은 계속 커질 것으로 보이며, 이러한 여러 결과를 원활하게 통합해 정확한 의사자결을 지원하는 기술도 중요하다.


    댓글

Designed by Tistory.