Page 3 - [과학비평] 전자출간 - 사조
P. 3
인공지능에게 권리와 책임을 부여할 수 있을까?
2조
김민규
인공지능(Artificial Intelligence; 이하 AI)은 기계가 못하고 인간이 해야 할 일을 대신 해
주고, 분야에 따라 인간 이상의 능력을 보여준다. 기술은 점점 발전하여 지금의 인간이 해야
할 많은 일을 대신 해줄 것이다. 그 과정에서 인간에게 부여하던 권리를 인공지능에게 부여
해야 하는 경우도 생길 수 있고 사고가 발생하였을 때 책임을 물어야 할 상황도 생길 수 있
다. 과연 AI에게 권리와 책임을 부여해도 되는 것일까?
먼저 권리에 대해 고찰해보자. 권리는 오용, 남용되었을 때 심각한 문제가 발생할 수 있
으므로 아무에게나 부여되어선 안된다. 여기서 오용은 실수에서 비롯되지만, 남용은 욕심으
로부터 생겨나기 마련이다. 최소한 AI는 오용은 생길지언정 권리를 남용하는 사례는 발생하
지 않을 것이란 의미이다. 물론 AI에는 인간에게 없는 다양한 오류가 있으므로 오용 면에서
는 계속해서 보완되어야 할 필요가 있다.
그렇다면 AI가 문제를 일으켰을 때 책임을 부여할 수 있을까? 내 생각에 이보다는 ‘AI에
게 책임을 부여하는 것이 의미가 있는가?’ 라는 질문이 더 적절한 것 같다. AI는 권리를 박
탈해도, 해고를 해도 큰 의미가 없다. 책임이란 단어가 어울리지 않는 객체인 것이다. AI에
의하여 사고가 발생한다면 그 AI를 관리, 감독하는 감독관이나 그 AI를 믿고 사용하는 (또는
고용한) 기업이 책임을 지는 것이 맞을 것이다.
AI는 기술적으로 나날이 획기적인 발전을 하고 있다. 미래에 AI가 어떤 능력까지 보여줄
지는 감히 상상할 수 없을 정도다. 인간보다 더 객관화된 선택을 할 수 있는 AI는 인간보다
더욱 권리를 가질 자격이 있을지도 모른다. 그러나 AI에게 시민권과 같은 필요 이상의 권리
나 책임을 부여하는 것은 AI를 기술로 보는 것이 아니라 의인화시켜서 하나의 생명체로 간
주하는 행동이다. 기술과 인간의 경계는 명확해야 할 것이다.
- 3 -