사람들은 태어나 각자의 삶을 살고 죽는다. 태어나고 죽음에 이르는 과정은 당연한 순리이며 이치인 이야기이다. 하지만 이런 당연한 사실이 사람들을 괴롭고 슬프게 한다. 특히 소중 한 사람이 죽음에 이르면, 큰 충격에 빠지고 슬퍼하며 그 충격과 슬픔의 늪에서 헤어나오지 못하는 사람들도 많다. 누군가의 죽음에 슬퍼하는 것은 좋지만, 너무 긴 시간 동안 그 감정에서 살아가는 것은 심신을 매우 지치게 만든다.
인공지능 윤리의 중심, 개발자와 사용자인공지능 개발자와 기업만 윤리의식을 잘 지키면 되는가?인간과 같이 생각할 수 있고 대화를 할 수 있는 기계 혹은 시스템 개발을 제안하면서 본격적으로 시작된 인공지능은 많은 발전을 거쳐왔다. 현대에는 제4차 산업혁명에 관한 관심이 높아지면서, 인공지능 관련 연구와 개발 및 판매가 활발하게 이루어지고 있다. 이미 우리 삶에 깊숙이 파고든 인공지능이 있으며 많은 이점을 사용자에게 주고 있지만, 그와 동시에 여러 부정적인 영향을 미치고 있다. 인공지능 분야는 다양한 정보를 수집하고 학습하는 기술이기에 습득한 정보에 따른 부작용과 개개인의 사생활에 해당하는 정보까지 습득하는 부작용도 수반한다. 이에 많은 국가와 전문가, 관련 단체들은 기업과 개발자에 많고 엄격한 윤리적 기준을 세우고 있다. 하지만 과연 기업과 개발자에 국한되어 윤리적 기준을 세워야 하는지 의문이 든다.개발자와 기업의 윤리적 기준실제로 이와 같은 문제를 예방하고자 또는 악용되지 않도록 많은 기관과 단체들이 윤리적 기준을 만들어왔으며, 현재 80여 개의 인공지능 윤리기준이 발표되었거나 발의 중이며, 여전히 새로운 기준이 만들어지고 있다. 발표되었거나 심의 중인 윤리기준 중에서 두 가지를 소개해보려 한다. 아래는 카카오 윤리 헌장의 내용이다.1. 카카오는 알고리즘과 관련된 모든 노력을 우리 사회 윤리 안에서 다하며, 이를 통해 인류의 편익과 행복을 추구한다.2. 알고리즘 결과에서 의도적인 사회적 차별이 일어나지 않도록 경계한다.3. 알고리즘에 입력되는 학습 데이터를 사회 윤리에 근거하여 수집, 분석, 활용한다.4. 알고리즘이 누군가에 의해 자의적으로 훼손되거나 영향받는 일이 없도록 엄정하게 관리한다.5. 이용자와의 신뢰 관계를 위해 기업 경쟁력을 훼손하지 않는 범위 내에서 알고리즘에 대해 성실하게 설명한다.6. 알고리즘 기반의 기술과 서비스가 우리 사회 전반을 포용할 수 있도록 노력한다.7. 아동과 청소년이 부적절한 정보와 위험에 노출되지 않도록 알고리즘 개발 및 서비스 디자인 단계부터 주의한다.다음은 4차산업혁명위원회에서 심의한 ‘사람이 중심이 되는 인공지능 윤리기준’에 대한 간략한 내용이다.1. 윤리기준이 지향하는 최고가치를 ‘인간성’으로 설정2. ‘인간성’을 구현하기 위해 인간의 존엄성 원칙, 사회의 공공선 원칙, 기술의 합목적성 원칙을 지켜야 한다.3. 인권 보장, 프라이버시 보호, 다양성 존중, 침해금지, 공공성, 연대성, 데이터 관리, 책임성, 안전성, 투명성의 요건이 충족되어야 한다.이처럼 기업과 단체, 기관들은 사회 전체와 사용자 개개인들에게 피해가 가지 않도록 다양한 측면에서 윤리적 기준을 세우고 검토 및 정정하며 그에 맞춰 따라가고 있다. 그리고 발생하는 문제에 따른 책임 소재 또한 기준을 만들어가는 중이다.사용자가 지켜야 하는 윤리원칙하지만 인공지능을 직접 활용하는 사용자에 대한 윤리적 장치 및 기준 마련은 기업과 개발자에 대한 것과 달리 매우 저조해 보인다. 아래는 인공지능 챗봇 ‘이루다’ 이슈에 관한 기사 내용 중 일부이다.문제의 발단은 일부 사용자들이 이루다를 성적 도구화하고 성희롱하면서 붉어졌다. 그리고 곧이어 대화 과정에서 이루다가 동성애, 장애인, 임산부, 흑인 등에 대한 혐오와 차별 발언을 쏟아낸 것이다.이수영 카이스트 교수는 “AI는 사실 어린아이처럼 인간의 모든 것을 습득하고 모방한다. 현재 우리가 AI에게 요구하는 공정성, 투명성 등은 모두가 인간에게 요구하는 윤리”라고 지적했다.이처럼 기업과 개발자가 아무리 주의를 기울이더라도 사용자가 비윤리적으로 사용하면 결국 악영향이 발생할 수밖에 없어 보인다. 결국, 개발자와 기업뿐만이 아닌 사용자에게도 윤리적 장치가 필요한 것으로 보인다. 그렇다면 사용자에게는 어떠한 윤리적 장치를 제시해야 할까?먼저 인공지능 사용자들은 차별과 편견 등 편향적인 말이나 행동에 조심할 필요가 있으며, 그와 관련한 인공지능 윤리교육도 지속적으로 받을 필요가 있다. 또한, 의무교육 과정에서도 인공지능 윤리교육이 추가될 필요성이 있다. 두 번째로, 사용자가 비윤리적인 데이터를 인공지능에 학습시켜 사회에 악영향이 발생했을 경우에는 인공지능 사용 제한과 처벌 같은 제도적 장치가 마련될 필요가 있다. 그 외에도 다양한 기준과 교육 및 제도적 장치가 마련될 필요가 있다.인공지능 윤리는 개발자와 사용자가 함께인공지능도 결국 모든 사람의 편의를 위해 개발된 기술 중 하나이다. 기술은 편의를 위한 수단적 도구이며, 도구는 어떻게 사용하는지에 따라 좋게도 나쁘게도 작용한다. 사람의 생활 속에 깊이 침투하는 인공지능은 윤리적인 시스템이 작동되어야 하며, 그것을 사용하는 사람 또한 윤리적으로 사용할 때, 비로소 인공지능 관련 윤리 문제의 대부분이 해결될 것이다. 개발자와 기업뿐만이 아닌 사용자 또한 기술 및 철학적 측면에서의 인공지능 윤리교육이 함께 다뤄져야 하며, 인공지능이 사회에 미치는 영향에 대해 깊이 이해하고 습득해야 비로소 인공지능을 사회 및 윤리적으로 올바르게 사용한다고 말할 수 있다.주제어: 인공지능 윤리, 개발자, 사용자참고문헌