윤리경영 관련 용어 소개 No.59 AI를 둘러싼 윤리적 문제 |
|||
---|---|---|---|
![]() |
2025-08-29 09:15:29 | ![]() |
53 |
2022년 오픈 AI의 ChatGPT 생성형 AI 등장 이후 전 세계 각국은 정치, 경제, 사회, 문화 등 모든 분야가 AI의 영향을 피할 수 없게 되었다. 나라나 개인의 삶이 AI의 영향에서 벗어날 수 없다면 AI는 의당 윤리적으로도 건전해야 한다.
그런데 모든 현대적 이기가 다 그렇듯이 AI 역시 윤리적으로 잘못 운용될 위험이 있어 이를 다루는 것이 본고의 목적이다.
세계적인 백과사전 Encyclopedia Britanica는 AI 운용상 우려되는 윤리적 문제로 다음의 5가지를 들었다.
① AI의 편향성(Bias)
AI는 학습 데이터 자체가 편견에 의해 만들어질 수 있으므로 항상 편향성을 지닐 가능성이 내재되어 있다고 할 수 있다.
따라서 이런 편향된 AI의 판단으로 말미암아 사원 채용, 의료 행위, 법 집행 등 다양한 분야의 판단이 잘못될 수도 있다.
이를 예방하기 위해서는 다양한 데이터를 입력하고 알고리즘을 투명하고 설명 가능한 방법으로 개발하는 등의 방법이 있을 수 있다.
② 데이터의 프라이버시 문제
AI의 기본 자료는 다량의 데이터이므로 그 데이터에 포함된 개개인의 개인 정보는 당사자의 허락 없이 수집되었을 가능성이 높다. 더더구나 이러한 정보는 다양한 출처에 의해 수집되었을 가능성이 높으므로 그러할 가능성은 가중된다.
가장 효과적인 예방책으로는 필요한 데이터를 최소한으로 사용하고, 그 데이터는 투명하게 사용되며 가급적 익명화하며 허가 없이 접근할 수 없도록 데이터 보관과 양도는 허가 없이 접근할 수 없도록 암호화 등이 필요하다.
③ AI 결정의 책임 소재가 불명
AI가 잘못된 결정을 내렸을 때 그 책임은 누가 지나 명확치 않다. 예컨대 건강 진단에 잘못된 처방을 내리거나 대출 결정을 불공정하게 내린 경우 AI의 판단에 영향을 준 요인이 복합적일 수 있어 정확한 잘못을 잡아 낼 수 없다.
이를 예방하기 위해 AI 시스템 내 모든 이해관계자(stakeholder)의 책임을 규정하고 이를 문서화하는 방법 등을 생각할 수 있다.
④ AI가 환경에 나쁜 영향은 주지 않는가?
많은 사람들이 익히 알고 있듯이 AI 모델 훈련과 운영은 막대한 에너지를 소비하므로 환경에 나쁜 영향을 줄 수 있다.
막대한 전력 소요로 인한 발전소 설비 확충, 그만치 늘어난 온실 가스 배출, AI 시스템에 들어간 하드웨어 등 자원 소모는 모두 환경에 역진적이다.
다만 AI 운용으로 에너지 효율 개선이나 환경 모니터링 등에 도움을 줄 수 있는 것은 앞에 말한 환경의 부담을 어느 정도 상쇄할 수 있다고 할 수 있다.
⑤ AI가 우리 일자리를 빼앗지는 않을까?
AI가 인간의 업무를 대체하는 일이 생기지 않을까 많은 노동자들이 걱정하고 있다. AI로 인해 업무가 훨씬 편리해진 기업일수록 그런 걱정이 많을 수밖에 없다.
그러나 기업은 법률이 아니라 윤리적으로 AI를 노동력의 대체가 아니라 노동력을 향상시키는(예컨대 생산성을 높이는) 방식으로 사용해야 하는 책임이 있다 할 수 있다.
그 예방책으로 AI 설계를 인간 노동을 보완하는 방향으로 하고, 점진적으로 도입하며, AI 활용을 인간의 노동에 위험이 따르거나 맞지 않은 부문에 사용하는 등의 방법을 들 수 있다.
이와 같이 AI가 혁신적인 도구이긴 하지만 윤리적으로 접근하지 않으면 사회적 · 경제적 부작용이 작지 않으므로 위에 언급한 AI에 따른 윤리적 문제의 최소화에 모두가 힘써야 할 것이다.
(https://www.britannica.com/money/ai-ethical-issues)
(사)한국기업윤리경영연구원 자문교수실
이전글 | | 윤리경영 관련 국내외 동향 (25년 8월) |
다음글 | | 윤리경영 관련 국내외 동향 (25년 7월) |