레이블이 #인공지능인 게시물을 표시합니다. 모든 게시물 표시
레이블이 #인공지능인 게시물을 표시합니다. 모든 게시물 표시

2026년 5월 4일 월요일

AI가 사람을 해고할 수 있는가 — 중국 법원이 던진 질문

중국에서의 사건 요약

2025년, 중국 항저우의 한 IT 기업이 AI 자동화 시스템을 도입하면서 품질관리 담당 직원 저우(Zhou) 씨에게 급여 40% 삭감을 통보했다. 이유는 단 하나였다. "당신의 업무를 AI가 대신한다." 저우 씨가 이를 거부하자 회사는 해고를 단행했다.

항저우 중급인민법원은 이 해고를 위법으로 판결했다. 법원의 논리는 명쾌했다. 기술의 발전이 기업에게 일방적 해고나 임금 삭감의 권한을 부여하지는 않는다는 것이다. 이 판결은 단순한 노동 분쟁의 결론이 아니다. AI 시대의 고용 관계에 대한 근본적인 물음을 법정 위에 올려놓은 사건이다.


기술은 중립적인가

흔히 기술은 중립적이라고 말한다. 칼이 요리사의 손에 들리면 식사를 만들고, 범죄자의 손에 들리면 흉기가 된다는 식의 논리다. 그러나 이 비유는 기술이 사회 구조 안에 이미 특정 권력 관계를 내포한 채로 도입된다는 사실을 외면한다.

AI 자동화는 단순히 "더 빠른 도구"가 아니다. 그것은 노동의 가치를 재정의하고, 협상력의 지형을 바꾸며, 누가 경제적 이익을 가져가는지를 결정하는 구조적 힘이다. AI가 저우 씨의 업무를 대체했을 때, 생산성 향상으로 발생한 이익은 기업으로 귀속되었다. 그 이익을 만들어온 사람에게는 해고 통보가 돌아왔다. 이것이 중립인가.

마르크스가 자본론에서 기계제 대공업을 분석하며 지적했던 구조가 AI 시대에 재현되고 있다. 기계는 노동자의 적이 아니라, 자본이 노동자에 대항해 사용하는 수단이 된다는 통찰이다. 기술 자체의 문제가 아니라, 기술이 배치되는 방식과 그 이익이 분배되는 구조의 문제다.


효율성의 이데올로기

현대 경영학은 효율성을 최고의 덕목으로 삼는다. AI 도입은 비용 절감, 오류 감소, 속도 향상이라는 압도적인 수치를 들고 온다. 이 앞에서 인간 노동자는 "비효율의 잔재"처럼 보이기 시작한다.

그러나 효율성은 무엇을 위한 효율인가. 효율성은 목적이 아니라 수단이다. 무엇을 위해 효율적이어야 하는지, 그 목적에 대한 합의가 없다면 효율성의 극대화는 결국 인간을 비용 항목으로 환원시키는 논리로 귀결된다.

항저우 법원의 판결은 이 효율성의 이데올로기에 제동을 건 것으로 읽힌다. "효율적이기 때문에 해고할 수 있다"는 논리를 법이 받아들이지 않은 것이다. 효율성의 계산식에 포함되지 않는 무언가 — 고용 관계의 신뢰, 사회적 안정, 개인의 존엄 — 가 법적 판단의 기준으로 작동했다.


중국의 딜레마, 그러나 보편적인 긴장

중국은 지금 매우 특수한 위치에 있다. 국가 차원에서 AI 기술 패권을 추구하면서도, 청년 실업률 상승과 경기 둔화라는 현실적 압박 앞에 놓여 있다. 정책 자문기구에서조차 "AI로 인한 대규모 일자리 소멸을 막아야 한다"고 경고하는 상황이다.

이 딜레마는 중국만의 것이 아니다. 미국에서도 2026년 이후 테크 업계에서만 약 8만 명이 AI를 이유로 일자리를 잃었다는 보도가 있다. 기술 혁신의 선두에 선 국가들이 공통적으로 마주하는 모순이다. 더 강력한 AI를 개발할수록, 그 AI가 자국민의 고용을 위협하는 역설.

이 긴장은 단순히 "AI를 늦춰야 하는가"의 문제가 아니다. 기술 발전의 속도와 사회 적응의 속도 사이의 간극을 어떻게 관리할 것인가의 문제다. 법원의 판결은 그 간극을 메우는 하나의 방식이다 — 사후적이고 개별적이지만, 사회적 신호로서의 의미는 크다.


고용 관계란 무엇인가

철학적으로 더 깊이 들어가면, 이 사건은 고용 관계의 본질에 대한 물음으로 이어진다.

고용 계약은 단순한 서비스 교환인가. 노동자는 시간과 역량을 팔고, 기업은 그에 상응하는 대가를 지불하는 거래. 이 틀 안에서 AI가 노동자보다 "더 나은 거래 조건"을 제시한다면, 인간을 교체하는 것은 합리적 선택처럼 보인다.

그러나 고용 관계를 이렇게만 이해하면, 우리는 근대 노동법이 수백 년에 걸쳐 쌓아온 논리를 버리게 된다. 노동자는 단순한 생산 요소가 아니라 권리를 가진 시민이라는 논리. 고용 관계에는 계약 이상의 사회적 의무가 포함된다는 논리. 이것이 해고 보호, 최저임금, 단체교섭권 같은 제도들의 철학적 기반이다.

AI는 이 기반을 흔든다. AI는 권리를 주장하지 않고, 피로를 느끼지 않으며, 임금 협상을 요구하지 않는다. 만약 기업이 AI를 순수한 도구로, 그리고 인간 노동자를 비용 최적화의 변수로만 본다면 — 그 결말은 저우 씨의 사례처럼 40% 삭감 통보가 된다.

항저우 법원은 그 결말을 거부했다. 이는 AI를 도입하지 말라는 뜻이 아니다. AI 도입의 이익을 기업이 독점하면서, 그 비용은 노동자에게 전가하는 방식이 허용되지 않는다는 선언이다.


앞으로의 물음

이 판결 이후에도 물음은 남는다. 법원이 AI를 이유로 한 해고를 막을 수는 있다. 그러나 AI가 서서히, 조용히, 새로운 채용을 대체하는 방식은 어떻게 다룰 것인가. 해고되지 않아도, 처음부터 고용되지 않는 세계는 또 다른 문제다.

기술은 계속 진보할 것이다. 그것을 막을 수도 없고, 막아서도 안 된다. 그러나 진보의 과실이 누구에게 돌아가는가, 그리고 진보의 충격을 누가 감당하는가 — 이 배분의 문제를 시장에만 맡겨둘 수는 없다.

중국 법원의 판결은 그 배분에 대해 사회가 적극적으로 개입해야 한다는 하나의 답이다. 불완전하고, 사후적이며, 모든 경우를 해결하지는 못한다. 그러나 "AI가 했으니 어쩔 수 없다"는 논리를 법이 거부한 순간, 우리는 적어도 이것이 기술의 문제가 아니라 선택의 문제임을 확인했다.

AI 시대의 가장 중요한 질문은 "AI가 무엇을 할 수 있는가"가 아니다. "우리는 AI로 무엇을 할 것인가" — 그리고 그 선택의 책임은 알고리즘이 아닌 인간에게 있다.


2026년 4월 21일 화요일

AI 워싱: 과장된 기술 주장이 만드는 법적·경영적 리스크

AI 워싱이란 무엇인가

AI 워싱(AI Washing)은 기업이 실제 AI 기술 수준을 부풀리거나, 심지어 존재하지도 않는 AI 역량을 보유한 것처럼 속이는 기만적 마케팅 행위를 가리킨다.

기업들은 "차세대 인공지능이 우리 비즈니스를 혁신했다"는 식의 대담한 선언을 쏟아내지만, 실상은 허위이거나 심각하게 과장된 경우가 많다. AI라는 단어가 투자 유치와 브랜드 가치에 직결되면서, 마케팅 팀이 기술적 현실을 한참 앞질러 달리는 구조가 굳어진 것이다.

비즈니스 컨설턴시 Cruxy의 CEO Carrie Osman은 AI 워싱을 "과대 선전에 사로잡히고 비판적 검토가 결여된 시장의 증상"이라고 진단하며, 이사회가 "AI로 뭔가를 해야 한다"는 압박에 시달리면서 문제가 심화된다고 지적한다.

컴플라이언스 자문사 De Risk Partners의 Ravi de Silva는 "모든 기업이 AI를 활용한다고 말하고 싶어하지만, 과대 선전이 진실을 앞지르기 시작했다"며 "이전 기술 사이클에서도 이런 패턴을 목격했다. 큰 약속, 빠른 자금 유입, 그리고 불충분한 감독이 반복된다"고 경고한다.


이 리스크가 부각된 계기: 실제 사례들

AI 워싱이 단순한 과장이 아니라 형사 기소와 집행 조치로 이어지는 심각한 리스크임을 보여준 사건들이 잇달아 터졌다.

SEC의 첫 AI 워싱 집행 조치 (2024년 3월) SEC는 두 투자사가 독자적인 딥러닝 AI 모델을 기반으로 투자 전략을 운용한다고 고객과 잠재 투자자를 수년간 오도했다는 혐의로 첫 AI 워싱 집행 조치를 발표했다. 사실상 해당 모델은 존재하지 않았다.

AI 채용 스타트업 Joonko CEO 기소 (2024년 6월) SEC는 현재 폐업한 AI 채용 기업 Joonko의 CEO Ilit Raz를, 기술 역량에 대한 허위 증언으로 투자자들로부터 최소 2,100만 달러를 편취한 혐의로 기소했다. SEC 집행국장은 이를 두고 "'인공지능', '자동화' 같은 신조어를 동원한 구식 사기"라고 직격했다.

전자상거래 앱 Nate의 CEO 기소 (2025년 4월) FBI와 연방검찰은 전자상거래 기업 Nate의 전 CEO Albert Saniger를, 쇼핑 앱의 AI 역량을 과장해 투자자들로부터 4,000만 달러를 편취하려 한 혐의로 기소했다. Saniger는 Nate 앱이 "AI 기반으로 완전 자동화되어 인간의 개입 없이 온라인 거래를 처리할 수 있다"고 홍보했지만, 실제 자동화 수준은 사실상 0에 가까웠고 필리핀 콜센터 직원 수백 명이 수동으로 거래를 처리하고 있었다.

아마존 Just Walk Out 논란 (2024년) Amazon Fresh·Amazon Go 매장에 도입된 'Just Walk Out' 기술은 AI 센서가 고객의 구매 물품을 자동 인식하고 청구한다고 알려졌지만, 실제로는 인도 직원 약 1,000명이 거래의 4분의 3 가까이를 수동으로 검증하고 있었다는 보도가 나오며 비판을 받았다.

FTC의 'Operation AI Comply' (2024년 9월) FTC는 AI를 내세운 허위 광고와 사기를 단속하는 'Operation AI Comply'를 개시하고, 가짜 리뷰 생성 AI 도구, 'AI 변호사' 서비스, AI 기반 수익 창출을 표방한 사기 업체 등에 법적 조치를 취했다. 당시 FTC 위원장은 "AI 도구를 사용해 사람들을 속이는 행위는 불법이며, AI라는 이름 아래 법 적용이 면제되지 않는다"고 못 박았다.


한국 기업들에게 주는 메시지

이 일련의 사태는 미국만의 이야기가 아니다. 한국 기업들에게도 직접적으로 시사하는 바가 크다.

첫째, "AI"라는 단어는 이제 법적 책임을 수반한다.

투자 설명 자료, IR 보고서, 제품 마케팅 어디서든 AI를 언급하는 순간 그 주장은 검증의 대상이 된다. 법무법인 Pierson Ferdinand의 파트너 Maryam Meseha는 "기업의 공시 자료가 AI의 역할을 실질적으로 잘못 표현한다면 증권 사기, 소비자 기만, FTC 위반으로 법적 책임을 질 수 있다"고 경고한다. 한국 상장사나 미국 시장에 투자를 유치하는 기업이라면 이 리스크는 실질적이다.

둘째, 임원 개인도 책임에서 자유롭지 않다.

AI 관련 허위 진술에 대해 기업뿐 아니라 임원 개인도 소송, 과태료, 기타 규제 제재의 대상이 될 수 있다. Nate CEO가 직접 기소된 사례가 이를 단적으로 보여준다.

셋째, EU AI Act는 한국 기업의 유럽 진출에도 적용된다.

2026년 8월 전면 시행되는 EU AI Act는 'AI' 또는 'AI 기반'이라고 표현된 제품을 규제 대상 AI 시스템으로 간주한다. 유럽 시장을 겨냥하는 한국 기업이 제품에 성급하게 'AI' 딱지를 붙였다간 막대한 컴플라이언스 비용과 규제 의무를 떠안게 된다.

넷째, 과장 광고는 기술 투자 자체를 망친다.

Park Place Technologies의 CTO Chris Carriero는 "과대 선전된 솔루션을 쫓다 보면 진정으로 효율과 혁신을 이끌 수 있는 실질적 AI 기술을 간과하게 된다"고 지적한다. AI 워싱은 외부 신뢰만 갉아먹는 게 아니라 내부의 기술 판단력과 투자 효율성도 훼손한다.

실천적 대응 방향

전문가들은 'AI 기반(AI-powered)' 대신 'AI 보조(AI-assisted)'와 같이 현실을 정확히 반영하는 표현을 사용하고, AI가 실제로 무엇을 하고 무엇을 하지 않는지 투명하게 공개할 것을 권고한다. 또한 마케팅·법무·컴플라이언스 기능이 공개 발표를 사전 검토하고, AI 모델의 개발·검증·통합 과정에 대한 내부 문서를 체계적으로 유지해야 한다.

결국 핵심 질문은 단순하다. "우리가 AI라고 부르는 것이 실제로 스스로 학습하고 판단하는가?" 이 질문에 자신 있게 답할 수 없다면, 그 단어는 아직 쓸 준비가 안 된 것이다.