-
인공지능 기술의 발전과 그에 따른 미래의 다양한 변화들에 대한 분석에 바탕으로 한 통찰이 필요했고, 인공지능 존재적 위치와 본성 및 사회에서 요구하는 역할에 대해 많은 심도 있는 철학적 연구와 분석이 필요한 시대이다. 스스로 똑똑해지는 인공지능을 어떤 존재로 바라봐야 할 것인가, 인공지능의 정체가 무엇인가, 현재와 앞으로 달라질 생활에 어떤 윤리적 문제와 사회적 윤리적 쟁점들이 많이 발생하고 있다. 따라서 우리는 어떻게 공존할 것인지의 질문들 등 사회적 갈등을 조정하기 위한 로봇 윤리가 필요하다.
인공지능의 윤리적 쟁점
자율주행자동차를 어떻게 규율할 것인가. 우리나라에서도 진행 중인 자율주행자동차의 도로 시험주행 이야기와 자율주행자동차가 일으킨 교통사고도 생활의 일부처럼 인식되고 있다. 현재까지 기술의 완성을 선언한 기업은 없고 구체적으로 기술이 완성되었다고 간주할 수 없지만, 사람들이 운전하는 안전성은 평균적인 사람들이 운전하는 안전 수준을 넘어선 것으로 평가된다.
자율주행자동차와 관계하여 많은 논의가 이루어 지는 것은 책임 소재다. 자율자동차가 사람을 치어 사상 사고가 났을 때 그 책임은 누구에게 있는가이다. 사고 책임 소재의 해명은 사고를 유발하도록 한 제어의 권한이 어디에 있었는가 하는 물음과 분리하여 생각할 수 없다. 자동차의 운전을 ADS에 의한 제어에서 자신의 운전으로 전환하는 시점에 사고가 발생했다면 그 책임은 ADS가 일으킨 사고 인가 아님 사람이 일으킨 사고인가.
군사로봇의 윤리적 문제에 관해 이야기해 보자. 윤리적 쟁점은 다양한데 전쟁에서 로봇과 인간이 맺는 관계는 어떻게 하며 무엇이 올바른가를 알아내는 것이 주제일 수 있다. 특히 전쟁의 개시, 참전 결정, 교전 등 자율적 무기 도입이 쉬울수록 전쟁을 위한 군사로봇을 개발하고 실제 전쟁에서 사용하는 것이 윤리적일 수 있을까에 대한 사회적 문제가 대두될 것이다.
군사로봇이 민간인을 적군으로 판단하여 전쟁 중 범죄를 완전히 낮출 수는 없으며 불행한 사태에 대해 누군가는 책임을 져야 한다. 공격을 감행할 때 아군과 적군에 미치는 영향을 전체적으로 판단하여 개입해야 하고 최소한의 물리력을 행사하도록 시스템화 되어야 한다. 이런 대응 관련 식별 문제가 현실적으로 해결되어야 할 문제라 볼 수 있다.
윤리적 인공지능 로봇
인공적 윤리적 행위자 즉 로봇 설계를 위한 고려 사항은 목적, 행위 지침, 규범 등 공통 도덕을 논해 볼 수 있다. 공통 도덕 논의는 인간 중심적 윤리 체계들인 규범들과 다양한 도덕 이론을 확보하기 위한 합의된 논의이다. 거트와 BC의 정돈된 규칙은 살인하지 말라, 고통을 주지 말라, 어려운 사람을 도와라, 진실을 말하라, 약속을 지켜라, 법을 지켜라, 성실하라, 친절히 해라 이다. 너무 추상적이어서 구체화하고 재구성이 필요한 부분이다.공학적 설계와 협업을 통해 연구해야 한다. 현실적 역할의 목적 설정과 제한된 영역을 설정하고 중첩되는 부분에서 제시된 공통도덕 논의 와 행위 지침은 AMA 제작에 이론적 시사점을 줄 것이다.
인공지능은 로봇의 지능적인 소프트웨어 부분을 말하며 로봇은 하드웨어와 소프트웨어 모두를 포함하여 자율적인 기계를 말한다. 인공지능 로봇은 지능적인 능력을 갖춘 로봇이라는 의미로 사용된다. 구성적 정보 철학의 입장에서 윤리적인 인공지능 로봇을 만들기 위한 방안 강구이며 인간의 윤리적 행동을 이해할 수 있는 기계론적 모델을 연구하고 아이디어를 모색하는 것이다.
인공지능 측면에서 더 논의해볼 쟁점은 첫째, 인공지능과 사람이 동등한 고려대상으로 고려되어야 하는 가이다. 인공지능이 사람과 동일하게 취급될 수 있는 존재인가부터 논의가 필요한 부분이다. 사람들의 기존 윤리적 법적 처리, 제도적 처리 방식을 확장하는 방식으로 문제를 해결할 수 있는가 하는 점이다. 자율주행자와 관련된 법규 제정 측면에서 생각해 보면 사회적으로 해결 할수 있는 것인가에 대해 생각해봐야 한다.
공존 윤리학 모색
전통적인 윤리적 철학에서는 책임은 인간에게만 주어졌다. 태풍, 홍수 등 자연피해가 발생핬을 경우 책임은 물을 수 없고 담당자의 잘못으로 피해가 났을 경우만 책임을 물을 수 있다는 관점을 아리스토텔레스까지 거슬러 올라가 확인할 수 있다. 이런 토대 위에 칸트는 책임과 자유의 관계를 강조하며 윤리적 책임을 정당화 하고 있다. 그럼에도 오늘날 인공지능 시스템에 대한 도덕적 철학을 논의하게 된 이유는 무엇일까.
전통적 방식으로 인간에게만 책임을 져야 한다고 말하려면 그것에 맞는 조건들이 충족되었는지 확인이 필요하다. 첫째, 행위 주체와 행위 결과 간에 인과적으로 통제 가능하다면 누구 책임 질 것인가. 둘째, 행위 주체는 자신의 행동을 알고 그 행동이 가져올 결과가 예측 가능해야 한다. 셋째, 자신의 행동을 자유롭게 선택할 수 있어야 한다.
따라서, 전통적 도덕철학에서 핵심 관점을 보면 인간에게 배타적으로 적용되어 온 개념을 넘어 인간이 아닌 다른 인공지능에도 확대 적용할 수 있는지 검토가 필요하며, 현재나 가까운 미래의 인공지능 시스템에 윤리적 개념을 적용하는 것이 쉽지 않지만 이에 대한 책무 적용에 대한 고민 또한 필요하다. 마지막으로 책무의 다양한 의미 가운데 설명 가능성을 가장 기본적으로 고려해야한다. 책무성을 인공지능에 실질적으로 어떻게 적용하고 구현할 것인지에 대한 알고리즘 분석이 가능하면 윤리 체계 가능성이 이루어 질 것으로 전망한다.