본문 바로가기

김보경/이슈 & 트렌드

AI 윤리와 책임

Forbes Article "Google, Facebook And Microsoft Are Working On AI Ethics—Here’s What Your Company Should Be Doing"

Chat GPT의 활용도가 높아질수록 AI로 삶을 더 편안하게 영위하고자 하는 욕망들의 부작용이 수면 위로 떠오르고 있다. 시험, 리포트를 포함해 text 기반의 과제들을 챗지피티에 대신해 달라는 요청을 했다가 밝혀져 문제가 된 사례들이 전 세계적으로 뉴스가 되고, AI의 작품을 되팔아 수익을 챙기는 사람들에게 '저작권' 이슈가 거론이 되는 시점이다.

AI를 '건강'하게 사용하는 방법은 무엇일까?
어디에서부터 어디까지 윤리적인 문제를 고민해야 하는 것일까?
AI가 내놓은 답변들의 소유권은 주장이 가능한 것인가?

AI 윤리와 관련해 답해야 하는 질문들이 너무도 많아지는 시기이기에, 이번 글에서는 여러 사례를 통해 AI윤리를 중점적으로 다뤄보고자 한다.

 

 

"AI 윤리가 왜 중요해?"

해야만 하는 질문이지만, 직접적으로 AI 윤리가 왜 중요한지 보여주기 위해서 아래 이미지를 가져왔다.

Chat GPT answer screen capture

실제로 ChatGPT에게 AI책임과 윤리를 다루는 리서치 페이퍼의 초록을 작성하도록 요구했더니, 챗지피티가 내놓은 대답이다.

단지 키워드를 중심으로 요청을 했을 뿐인데, 챗지피티는 관련 주제가 왜 중요한지, 어떤 문제점을 내포하고 있는지까지 서술해주고 있다. 

 

내가 만약 실제로 학교에서 AI윤리를 주제로 과제를 수행 중이라면, 그리고 챗지피티가 내놓은 답변을 그대로 ctrl+c, ctrl+v 하여 제출했다면 어떻게 될까?

 

채점 시에 이게 AI챗봇이 만들어낸 과제물이라는 걸 알게 되면 문제가 될까?

만약 모르고 넘어간다면, 그건 문제가 되지 않는 걸까?

AI윤리는 AI를 개발할 때 논의가 되는 부분이기도 하지만 결국 AI를 사용하는 '이용자'의 선택과 역할이 너무나도 중요한 주제일 수밖에 없다.

좋은 취지에서 만든 AI라도 이를 활용하는 사람에 따라서 세상에 이로운 발전을 도모할 수도 있지만, 반대로 더 나쁘게 만들 수도 있기 때문이다.

 

이렇듯 AI를 잘 사용할 수 있는 방법을 가르치기 위해서 보스턴대학교와 영국 케임브리지 대학교는 'Responsible AI'라는 강의를 신설하는 등 발 빠르게 AI윤리의 중요성을 인식하고 관련 윤리 강령이 만들어질 수 있도록 노력하고 있다.

 

케임브리지대에서는 AI윤리와 관련해 500페이지가 넘는 핸드북을 발행하기도 했는데, 여유가 되면 한번 읽어보는 것도 좋을 것 같다. 

 

https://doi.org/10.1017/9781009207898

 

"AI 윤리, 무엇을 살펴봐야 하나?"

그럼 이토록 중요한 AI윤리를 어디에서부터 살펴봐야 할까?

아래 8가지 질문들 중 몇 가지를 짚어보며 필요한 질문들을 던져보자. 

 

 

1. 편견: AI는 공평한가?

AI를 개발하는 것은 결국 인간이기 때문에, AI는 편견으로부터 자유로울 수 없다. 

챗GPT도 마찬가지로 인간이 쓴 글, 나눴던 대화에 집중된 데이터를 통해 학습된 인공지능이기 때문에 그동안의 문화적, 사회적 편견을 그대로 답습하고 있다고 보는 것이 타당하다. 

 

그렇다면, 이런 AI는 과연 공평하다고 볼 수 있는가? 

공평이라는 개념이 성립되기 위해서는 '객관적인' 판단, 즉 어느 한쪽으로도 치우치지 않는 판단력과 분석력이 필요하다.

 

그런데 이미 AI가 그 자체로 이미 편견을 지니고 있는 기계라면, 공정함이 요구되는 업무에서 AI의 결정 혹은 답변은 신뢰할 수 있는 것일까?

 

2. 법적 책임: AI에 대한 책임은 누가 지는가? 

AI가 보건의료 산업에서 사용되었다고 가정해 보자. 

환자의 정보를 데이터화하여 진단을 내렸는데, 오류가 생겨버렸다면 이에 대한 책임은 누가 져야 맞을까?

AI가 스스로 책임을 질 수 있다고 보고 처벌을 해야 할까? 아니면 AI를 개발한 회사를 탓해야 할까.

애초에 AI를 처벌할 수 있는 것인가?

 

2016년 테슬라의 자율주행 자동차 사망사건의 경우, 그 책임은 운전자에게 있다는 판결이 내려졌다. 

운전자가 자율주행에만 의존해서는 안되며, 자신도 주의를 기울이고 핸들 위에 손을 올려야 한다는 것이 분명히 공지되어 있었기 때문이다.

 

공지가 되어있고, 사용자가 이에 동의한 채로 제품을 사용하기로 결정한 이상 그 책임은 이용자에게 있다는 것이 테슬라 사례가 보여주는 결론이다. 

 

챗GPT의 범용성으로 각 산업별로 전문 AI가 생기는 시대가 곧 온다면, 그리고 예상 밖의 오류 혹은 사고가 발생한다면 이 역시도 AI가 완벽하지 않다는 것을 인지했음에도 사용하기로 결정한 '이용자'들의 몫이 되는 게 타당한 것일까?

 

3. 보안: AI를 의도적으로 악용하려는 사람들로부터 어떻게 보호해야 하나? 

딥페이크 기술의 악용 사례들에 이어서 챗GPT를 사용해 악성 코드를 작성하는 사이버 범죄 사례가 등장했다. 기술 전문 지식이나 코딩 지식 없이도 챗GPT에 요청을 하기만 하면, 모든 사용자가 쿼리를 입력하고 악성 코드와 설득력 있는 피싱 이메일을 생성할 수 있던 게 원인이었다. 

OpenAI는 범죄의 악용 우려가 있는 데이터 혹은 질문에 대해서는 답변을 내놓지 못하도록 제어 기능을 구현하고 있지만 사실상 모든 가능성을 고려하는 것은 불가능에 가깝다. 

 

AI에 접근하는 사람들이 모두 선의의 목적을 가지고 있다고 확신할 수 없기에

개인의 신분을 확인할 수 있는 절차가 꼭 필요해질 것이다. 

 

그렇다면, 무엇을 근거로 '악용'의 범주를 어떻게 나눌 것인가?

AI가 악용되는 상황이라면, 이를 어떻게 차단하고 관리할 것인가? 에 대한 고민이 필요하다. 

 

4. 파워&컨트롤: AI가 어떻게 사용될지는 누가 결정할 것인가?

현재 우리는 OpenAI가 내놓은 챗GPT를 사용하는 고객들이다. OpenAI는 비영리조직의 연구기관으로 개인, 회사 및 재단의 기부 및 후원을 통해 자금을 조달하고 있다.

 

아직은 챗봇에 대한 흥미와 호기심에 단점보다 장점이 더 많이 다루어지는 시기라고 보이는데, 만약 우려하던 문제들이 발생하고 법적인 규제와 정책들이 하나 둘 수립되기 시작하면 과연 챗GPT는 온전히 OpenAI의 소유로 남을 수 있을까?

 

연구기관의 개발자와 학자들의 의사결정에 어디에 그 쓰임이 닿을지 확신할 수 없는 챗봇의 미래를 맡기는 것에 반대할 세력이 없을까?

 

 


 

아직도 너무나 많은 질문들이 남았지만, 내다볼수 없는 미래이기 때문에 AI윤리와 관련해서는 그만큼 깊게 생각하고 또 빠르게 준비해야 한다고 생각한다.

AI와 메타버스는 공존할수 밖에 없는 개념이기 때문에 메타버스의 미래를 꿈꾸는 독자들에게 조금이나마 새로운 질문을 던질 수 있었던 시간이 되었길 바라본다. 

 

*본 글은 개인의 견해와 주관으로 작성되었습니다. 문제의 소지가 있는 내용이 있을 경우 댓글로 연락 부탁드립니다.