구글코리아가 주최한 제1기 ‘책임감있는AI포럼’ 3회차가 지난 18일 개최됐다. 이번 포럼에서는 설명가능한 AI(explainable AI, XAI)를 통한 인공지능(AI)의 안전하고 유익한 활용 방안이 중점적으로 논의됐다.
이번 행사는 ‘세이퍼 위드 구글(Safer with Google)’ 행사와 연계되어 진행됐다. 전문가들은 AI 기술 고도화에 따른 프라이버시 침해, 사이버 보안 위협, 편향 및 차별 등의 잠재적 위험을 선제적으로 관리하고, 설명가능한 AI를 통해 신뢰성과 안전성을 확보하는 방안을 집중적으로 토론했다.
최재식 KAIST 김재철AI대학원 교수는 설명가능한 AI의 작동 원리와 다양한 분야별 활용 사례를 소개했다. 최 교수는 “설명가능한 AI는 AI의 의사결정 근거와 알고리즘을 검증하고 이를 인간이 이해할 수 있게 설명함으로써, AI 기술의 투명성과 신뢰성을 크게 개선할 것”이라고 전망했다.
구글 딥마인드의 루도빅 페란 프로덕트 매니저는 ‘책임감 있는 생성형 AI 툴킷’을 소개했다. 페란 매니저는 “이 툴킷을 통해 개발자들은 표준화된 정책 준수, 다양성 존중, 유해 콘텐츠 제어, 성능 평가 및 리스크 측정, 투명한 피드백 등을 실현할 수 있게 됐다”고 설명했다.
포럼에 참석한 17명의 전문가들은 설명가능한 AI의 적용과 도전 과제, 발전 방향성에 대해 심도 있는 토론을 진행했다. 주요 논의 주제로는 설명가능성과 AI 기술 혁신의 관계, 윤리적·사회적 영향력, 법제도 및 정책 적용 방안, AI 기술 혁신과의 균형 등이 다뤄졌다.
신경자 구글 아태지역 플랫폼&디바이스 마케팅 및 구글코리아 마케팅 총괄은 “생성형 AI의 등장으로 ‘설명가능한 AI’의 중요성이 더욱 부각되고 있다”며, “앞으로도 AI의 신뢰성과 안전성 확보, 그리고 혁신을 위한 구체적이고 심도 있는 논의가 지속되기를 기대한다”고 밝혔다.
이번 포럼을 통해 AI 기술의 발전과 함께 책임감 있는 활용의 중요성이 재차 강조됐다. 전문가들은 설명가능한 AI가 향후 AI 기술의 투명성과 신뢰성 향상에 핵심적인 역할을 할 것으로 전망했다.
Leave a Comment