- 종합
- 기사보기
인텔, 인공지능과 머신러닝 취약성 방어하는 개선 프로그램에 참여해
- 2020-04-13
- 박종배 기자, jbpark@elec4.co.kr
인텔은 조지아공과대학교와 함께 미 국방성 산하 방위고등연구계획국(DARPA)이 진행하는 GARD 프로그램에 공동으로 참가한다고 13일 밝혔다.
GARD(Guaranteeing AI Robustness against Deception) 프로그램은 머신러닝(ML) 모델을 겨냥한 기만 공격에 대한 방어를 개선하기 위해 수백만 달러 상당의 자금을 바탕으로 출범된 4년 기간의 프로그램이다. 인텔은 GARD 프로그램의 주계약업체이다.
제이슨 마틴(Jason Martin) 인텔 랩스 수석 엔지니어 겸 DARPA GARD 프로그램 인텔 수석 조사관은 "인텔과 조지아공과대학은 인공지능(AI)과 머신러닝(ML)의 취약성에 대한 생태계 공동의 이해와 완화 능력을 증진시키기 위해 협력하고 있다”며, “일관성 기법에서 혁신적인 연구를 통해 개체 탐지를 강화하고 인공지능(AI)과 머신러닝(ML)이 적대적 공격에 대응할 수 있는 능력을 향상시키기 위한 접근방법에 대해 협력하고 있다”고 말했다.
드물지만, 적대적 공격은 데이터에 대한 머신러닝(ML) 알고리즘의 분석을 속이거나 변경하거나 혹은 손상시키려 한다. 인공지능(AI)과 머신러닝(ML) 모델이 반자율적 혹은 자율적인 시스템으로 점점 더 통합되고 있는 만큼, 예상치 못하거나 기만적인 상호작용의 안정성, 안전성 및 보안을 지속적으로 개선하는 것이 중요하다.
예를 들어, 픽셀 단위에서 인공지능(AI)의 오분류와 오역은 이미지 전체에 대한 오역 및 잘못된 분류로 이어질 수 있다. 또한, 실제 사물에 대한 미세한 수정으로 인해 인공지능(AI) 인식 시스템이 혼동될 수 있다. GARD는 인공지능(AI)와 머신러닝(ML) 기술이 잠재적 공격으로부터 더욱 잘 대응할 수 있도록 지원할 예정이다.
<저작권자(c)스마트앤컴퍼니. 무단전재-재배포금지>
#헬스케어
#보안
#인공지능