- 요슈아 벤지오 교수 "AI 안전 위해 국내법-국제협약 조화 필요"
- 생성형 AI 위험성 발굴 대회 결과 공개… 7개 분야 주요 위험 식별

과학기술정보통신부가 11월 26일 서울에서 '인공지능 신뢰·안전성 학술회의'를 개최했다. 이번 행사에는 국내 주요 AI 기업과 연구자 등 200여 명이 참석해 AI 신뢰성과 안전성 확보를 위한 민관의 노력을 공유했다.
세계적 AI 석학인 요슈아 벤지오 교수는 기조연설에서 "AI 안전 확보를 위해 국내법과 국제협약 간의 조화가 필요하다"고 강조했다. 그는 또한 "AI 모델의 위험 평가와 관리 기술 확보를 위한 정부 지원 확대가 필요하다"고 덧붙였다.
이날 행사에서는 '인공지능 서울기업서약'에 참여한 국내 6개 기업(네이버, 카카오, 삼성전자, SKT, KT, LG AI연구원)이 각사의 AI 안전 관리 이행 현황을 공개했다. 네이버는 'AI 안전성 체계'를, 카카오는 'AI 위험관리체계'를 구축했다고 밝혔다. 삼성전자는 내장형 AI에 대한 신뢰·안전성 체계를 운영 중이며, SKT는 'AI 행동규범'을 수립했다고 발표했다.
한국정보통신기술협회(TTA)는 지난 4월 개최된 '생성형 AI 잠재적 위험성·취약점 발굴 경진대회(AI 레드팀 챌린지)' 결과를 공개했다. 1,000여 명의 참가자들이 국내 4개 AI 기업의 생성형 AI 모델을 대상으로 진행한 이 대회에서 잘못된 정보, 편견 및 차별, 불법 콘텐츠 생성 등 7개 분야의 주요 위험이 식별됐다.
송상훈 과기정통부 정보통신정책실장은 "민간 자율에 기반한 책임 있는 AI 개발·활용 문화가 확산될 수 있도록 정책 지원을 강화하겠다"며, "AI 안전연구소 출범을 통해 국가 차원에서 체계적으로 대응해 나가겠다"고 밝혔다. 한편, 이날 행사에서는 '제2회 인공지능 신뢰성 대상' 시상식도 진행됐다. 총 41개의 AI 제품·서비스를 대상으로 한 심사 결과, 다비오의 '어스아이2.0'이 대상을 수상했다.









