2026년 4월 21일 화요일

AI 리스크를 줄이고 싶다면, 알고리즘보다 데이터를 먼저 보라

[기사 소개]

이 글은 Risk Management Magazine에 2026년 4월 21일 게재된 기고문으로, 저자는 Kevin Gaut—보험 테크 플랫폼 INSTANDA의 최고기술책임자(CTO)다. INSTANDA는 클라우드 기반의 보험 코어 시스템을 제공하는 인슈어테크 기업으로, Gaut는 AI와 데이터 아키텍처 분야의 실무 전문가다. 이 기고문은 리스크 매니저를 주요 독자로 삼아, AI 도입 실패의 근본 원인을 '알고리즘'이 아닌 '데이터 무결성(Data Integrity)' 문제로 짚어낸다.


[핵심 주장]

AI 성공의 출발점은 최신 모델이나 정교한 알고리즘이 아니라, 신뢰할 수 있는 데이터다.

데이터가 신뢰할 수 없으면, 아무리 뛰어난 AI 모델도 환각(hallucination)을 일으키며 운영·재무·평판 리스크를 연쇄적으로 발생시킨다. 실제로 2026 Allianz Risk Barometer에서 AI는 사이버 사고에 이어 글로벌 비즈니스 리스크 2위로 꼽혔다.


['더티 데이터' 딜레마]

많은 기업에서 데이터는 여러 시스템에 분산 저장되어 있어, AI 모델이 필요한 맥락을 확보하기 어렵다. COBOL 등 레거시 메인프레임 시스템을 쓰는 조직일수록 AI 통합이 더욱 까다롭고, 관련 리스크도 크다.

클라우드 기반 시스템도 예외가 아니다. 보험사가 자동화된 언더라이팅 프로세스를 도입할 때, 여러 소스에서 끌어온 물건 정보나 손해 데이터에 공백이 생기면 요율 산정 오류가 수 주에서 수 개월간 발견되지 않을 수도 있다.


[리스크 매니저가 점검해야 할 4가지 질문]

① 데이터를 너무 일찍 정제(clean)하고 있지는 않은가?

과거의 ETL(추출-변환-적재) 방식은 데이터를 분석 전에 표준화하는데, 이 과정에서 AI 학습에 필요한 맥락이 사라진다. 더 나은 접근은 지저분하더라도 원시(raw) 데이터를 최대한 보존하는 파트너를 택하고, 이상값과 편향을 제거한 뒤 특정 유스케이스에 맞게 모델을 학습시키는 것이다.

② 데이터 추출 도구가 핵심 시스템과 제대로 통합되어 있는가?

OCR 솔루션은 비정형 데이터를 구조화할 뿐이며, 그 자체만으로는 AI가 정확한 언더라이팅·클레임 결정을 내리기에 충분하지 않다. 클라우드 기반 코어 시스템을 가진 조직은 AI 기능을 내장해 데이터 정제와 강화까지 자동화할 수 있지만, 레거시 시스템을 쓰는 조직은 이 과정이 불가능해 AI 리스크가 증폭된다.

③ PII와 민감 데이터는 어떻게 처리되는가?

ChatGPT 같은 외부 AI 도구에 개인식별정보(PII)를 전송하면, 해당 도구는 데이터 서브프로세서가 되고 조직은 그 관계를 공시하고 관련 개인정보 규정을 준수할 책임을 지게 된다.

④ 인간의 개입이 필요한 시점은 언제인가?

생성형 AI에서 에이전틱 AI로 진화할수록 자동화 범위가 넓어지는 만큼, 언더라이팅·클레임 같은 다단계 프로세스에서는 인간이 동일한 수준의 의사결정 기준을 적용할 수 있도록 휴먼 인 더 루프(HITL) 체계를 명확히 갖춰야 한다.


[결론]

리스크 매니저는 알고리즘보다 데이터의 출처, 정제 방식, 활용 방식을 이해하는 데 집중해야 한다. 이를 제대로 관리한 조직은 AI 리스크를 낮추고, 신뢰를 구축하며, 더 빠르게 ROI를 실현할 수 있다.


댓글 없음:

댓글 쓰기

가장 많이 본 글