AI 분석
정부가 인공지능 산업을 육성하면서도 안전성을 확보하기 위한 법안을 추진한다. 최근 챗GPT 같은 생성형 AI 확산에 따라 기술의 위험성에 대한 우려가 커지자, 정부는 고위험 AI와 저위험 AI를 구분해 관리하는 체계를 마련하기로 했다. 과학기술정보통신부는 3년마다 AI 기본계획을 수립하고 AI 안전연구소를 설립해 국민 안전을 보호할 방침이다. 또한 생성형 AI 서비스 제공자는 이용자에게 AI 사용 사실을 미리 알리고 결과물에 표시해야 한다. 이와 함께 AI 기술 개발과 산업 진흥을 위해 전문인력 양성과 데이터 제공 사업도 추진된다.
* 이 요약은 AI가 생성한 것으로 법적 효력이 없습니다. 정확한 내용은 원문을 확인하세요.
핵심 조항 및 영향
• 배경: 인공지능이 교통, 의료, 서비스 등 다양한 분야에 활용되면서 산업 발전이 기대되는 한편, 불확실성, 불투명성, 악용 가능성 등의 위험성
• 내용: 인공지능의 개발·이용 기본원칙과 사업자 책무를 규정하고, 고위험·저위험 인공지능으로 구분하여 차등 규제하며, 국가인공지능위원회 설립,
• 효과: 이처럼 인공지능의 개발ㆍ이용이 거의 모든 산업분야에 적용되어 부가가치를 창출할 것으로 예상되고 있으나, 다른 한편으로는 인공지능의 위험성
영향 평가
재정 영향: 법안은 인공지능안전연구소 운영, 기술개발 지원, 학습용 데이터 제작·제공, 전문인력 양성 등에 정부 예산 투입을 규정하고 있으며, 3년마다 기본계획 수립을 통해 지속적인 정책 자금 배분을 명시하고 있다.
사회 영향: 법안은 고위험 인공지능에 대한 확인제도와 생성형 인공지능의 사전 고지 및 표시 의무를 규정하여 국민의 생명·신체·재산 보호와 신뢰 기반 조성을 추구한다. 동시에 인공지능 기술개발 및 산업진흥을 통해 일상생활의 편의 증진을 목표로 한다.