조직에 AI를 도입하는 일은 단순한 기술 전환이 아닙니다.
이는 일하는 방식의 변화, 역할의 재정의, 그리고 때로는 존재 가치에 대한 질문까지 이끌어냅니다.
많은 조직이 “AI가 일을 더 빠르고 정확하게 할 수 있다”는 기대 속에 기술을 도입하지만, 실제 현장에서는 다음과 같은 갈등이 종종 발생합니다:
• “AI 때문에 내 업무가 줄어드는 건가요?”
• “이 판단은 사람이 한 건가요, 기계가 한 건가요?”
• “우린 충분히 설명을 들은 적이 없어요.”
이런 말들 속엔 불안, 저항, 신뢰의 결여가 담겨 있습니다. 오늘은 AI 도입 과정에서 자연스럽게 발생하는 사람 중심의 갈등을 어떻게 리더십으로 해결할 수 있는지 이야기합니다.
1. AI 도입이 갈등을 유발하는 구조적 원인
AI 도입은 많은 경우 기술 부서 주도로 빠르게 이루어집니다.
하지만 조직 내에는 다양한 직무, 연차, 기술 수용도가 혼재되어 있고, 그에 따라 기술 이해도와 기대 수준이 다릅니다.
한국정보화진흥원(NIA, 2023)은 “AI 전환 프로젝트를 시행한 공공기관 35곳 중 71%에서 도입 초기에 내부 갈등이 표면화되었다”고 밝혔습니다.
가장 큰 이유는 "소통 부족"과 "목표 공유 실패"였습니다.
즉, 기술이 문제가 아니라, 사람과의 관계 관리 부족이 갈등을 일으키는 핵심 요인이었던 것입니다.
2. 리더가 알아야 할 갈등의 3가지 패턴
① 기능적 갈등:
• “왜 굳이 이걸 AI로 바꾸죠?”
• “AI가 우리 일보다 잘할 수 있나요?”
→ 이는 역할 혼란에서 비롯된 갈등입니다.
→ 리더는 AI의 도입 목적이 ‘업무 대체’가 아닌 ‘업무 보조·효율 향상’임을 명확히 설명해야 합니다.
② 심리적 갈등:
• “우리 부서는 왜 가장 늦게 설명을 받았죠?”
• “결정이 이미 내려졌는데 왜 지금 말하죠?”
→ 이는 의사결정의 배제감에서 오는 감정적 반발입니다.
→ 리더는 ‘사전 설명–참여 설계–피드백 순환’이라는 절차적 정당성을 확보해야 합니다.
③ 가치 기반 갈등:
• “AI는 사람이 아니잖아요. 책임은 누가 집니까?”
• “이건 우리의 일하는 철학에 어긋납니다.”
→ 이는 조직문화·가치와 기술의 충돌입니다.
→ 리더는 기술보다 사람 중심의 기준을 먼저 확립해야 합니다.
3. 실질적인 리더십 해결 전략
① “공식화 이전의 소통” – 정보의 타이밍이 중요하다
IBM의 2022년 보고서에 따르면, “AI 도입 과정에서 가장 긍정적인 반응을 얻은 조직은 도입 3개월 전부터 전 구성원에게 내용을 공유한 팀”이었습니다.
이들은 초기에 반발이 있어도, 이후 도입 속도와 만족도가 더 높았습니다. 리더는 AI가 실제 적용되기 전에 '무엇이, 왜, 어떻게 바뀌는지'를 설명하는 시간을 반드시 확보해야 합니다.
② “참여 기반 설계” – 팀원들이 ‘공동 설계자’가 되게 하라
AI 기술을 적용하는 과정에 팀원들을 직접 참여시키는 방법은 매우 효과적입니다.
예를 들어, 유한킴벌리는 스마트 팩토리 구축 과정에서 생산직 현장직원들을 ‘AI 개발 자문단’에 포함시켰습니다.
이들은 어떤 데이터를 수집하고, 어떤 기준으로 분석할지를 함께 논의했고, 결과적으로 도입 후 이탈률이 30% 감소했습니다.
리더는 기술 도입을 탑다운 지시가 아니라, 협업 기반 변화 관리 프로젝트로 이끌어야 합니다.
③ “감정 인정 – 변화는 논리보다 공감으로 설득된다”
AI 도입 초기에는 “그거 좋아 보인다”는 반응보다 “우릴 왜 바꾸려 하지?”라는 방어적 심리가 더 큽니다.
실리콘밸리의 중견 SaaS 기업 슬랙(Slack)은 내부 AI 챗봇 기능을 도입할 때 “기술 설명 세션”보다 먼저 “심리적 저항 토론 시간”을 마련했습니다.
이 세션에서 가장 효과적이었던 건 CTO가 직접 “우리 모두 처음 겪는 일이며, 나도 두렵다”고 말한 것이었습니다.
리더의 정직한 감정 공유는 팀원에게 신뢰와 연결감을 줍니다.
④ “책임과 통제 구조 명확화 – ‘기계의 결정’이 아니라 ‘사람의 승인’임을 보장하라”
AI 도입 후 가장 큰 불안 중 하나는 “실패했을 때 누가 책임지느냐”입니다.
이를 방치하면 구성원은 AI를 활용하는 것 자체를 두려워하게 됩니다.
리더는 다음과 같은 원칙을 명확히 해야 합니다:
• “AI가 제시한 결과는 ‘보조 자료’일 뿐, 최종 판단은 사람이 한다.”
• “AI의 사용은 의사결정을 위한 참고이지, 책임의 전가 수단이 아니다.”
• “문제가 생겼을 경우, 기술이 아니라 프로세스를 함께 검토하겠다.”
4. 기업 사례: 한국전력공사(KEPCO)의 AI 전력예측 시스템 갈등 해소
2022년 한국전력은 AI 전력 수요예측 시스템을 도입하면서, 내부에서 데이터 해석 방식에 대한 불만이 터져나왔습니다.
기존 인력은 “AI가 과거 패턴만 보고 오차를 낸다”며 반발했고, 개발팀은 “사람은 주관적이다”고 맞섰습니다.
이때 KEPCO는 두 팀의 협업 워크숍을 통해, "AI + 사람의 판단 병행" 체계를 새로 수립했습니다.
AI가 먼저 예측을 내고, 이를 기존 담당자가 해석 및 수정하는 프로세스를 만든 것입니다.
결과적으로 오차율은 15% 줄었고, 팀 내 신뢰도도 높아졌습니다.
[마치며]
AI 도입 과정에서 갈등은 ‘예외 상황’이 아닙니다.
오히려 변화를 진지하게 받아들이는 조직일수록 더 많은 질문과 감정이 나옵니다.
진정한 리더는 이 갈등을 무시하지 않고, 정면으로 마주합니다.
그리고 기술을 중심에 두기보다, 사람의 감정과 맥락을 중심에 둡니다.
AI는 강력한 도구입니다.
하지만 이 도구가 효과적으로 작동하기 위해서는 조직 구성원 모두가 변화를 이해하고, 수용하고, 함께 설계할 수 있는 환경이 필요합니다.
그 환경을 만드는 것이 바로 리더의 역할입니다.
[참고자료]
• NIA (2023). “공공기관의 AI 전환 갈등 사례 조사”
• IBM Global AI Adoption Index (2022)
• Slack Technologies Internal Report (2021). “Managing Emotional Resistance in AI Integration”
• KEPCO Newsroom (2022). “AI 수요예측과 인간 협업의 재설계 사례”
• McKinsey (2021). “Leading Through the Human Side of Digital Transformation”
댓글