Page 3 - [과학비평] 전자출간 - 사조
P. 3

인공지능에게 권리와  책임을  부여할 수 있을까?


                                                                                                   2조
                                                                                                김민규




                       인공지능(Artificial  Intelligence;  이하  AI)은  기계가  못하고  인간이  해야  할  일을  대신  해
                  주고,  분야에  따라  인간  이상의  능력을  보여준다.  기술은  점점  발전하여  지금의  인간이  해야
                  할  많은  일을  대신  해줄  것이다.  그  과정에서  인간에게  부여하던  권리를  인공지능에게  부여
                  해야 하는  경우도  생길  수  있고  사고가 발생하였을  때  책임을  물어야 할 상황도  생길  수  있
                  다. 과연  AI에게  권리와 책임을  부여해도  되는 것일까?


                       먼저  권리에  대해  고찰해보자.  권리는  오용,  남용되었을  때  심각한  문제가  발생할  수  있
                  으므로  아무에게나  부여되어선  안된다.  여기서  오용은  실수에서  비롯되지만,  남용은  욕심으
                  로부터  생겨나기  마련이다.  최소한  AI는  오용은  생길지언정  권리를  남용하는  사례는  발생하
                  지  않을  것이란  의미이다.  물론  AI에는  인간에게  없는  다양한  오류가  있으므로  오용  면에서
                  는  계속해서  보완되어야 할 필요가  있다.


                       그렇다면  AI가  문제를  일으켰을  때  책임을  부여할  수  있을까?  내  생각에  이보다는  ‘AI에
                  게  책임을  부여하는  것이  의미가  있는가?’  라는  질문이  더  적절한  것  같다.  AI는  권리를  박
                  탈해도,  해고를  해도  큰  의미가  없다.  책임이란  단어가  어울리지  않는  객체인  것이다.  AI에
                  의하여  사고가  발생한다면  그  AI를  관리,  감독하는  감독관이나  그  AI를  믿고  사용하는  (또는
                  고용한)  기업이  책임을 지는  것이  맞을 것이다.


                       AI는  기술적으로  나날이  획기적인  발전을  하고  있다.  미래에  AI가  어떤  능력까지  보여줄
                  지는  감히  상상할  수  없을  정도다.  인간보다  더  객관화된  선택을  할  수  있는  AI는  인간보다
                  더욱  권리를  가질  자격이  있을지도  모른다.  그러나  AI에게  시민권과  같은  필요  이상의  권리
                  나  책임을  부여하는  것은  AI를  기술로  보는  것이  아니라  의인화시켜서  하나의  생명체로  간
                  주하는  행동이다.  기술과  인간의 경계는  명확해야  할  것이다.





























                                                         -  3  -
   1   2   3   4   5   6