LIM Center, Aleje Jerozolimskie 65/79, 00-697 Warsaw, Poland
+48 (22) 364 58 00

인공지능에서의 책임 격차 탐색하기

인공지능에서의 책임 격차 탐색하기

20년 전, 철학자 안드레아스 마티아스는 중요한 윤리적 질문을 제기했습니다: 만약 인공지능(AI)이 피해를 초래한다면 누가 책임을 져야 할까요? 이 “책임 격차”라는 개념은 ChatGPT와 같은 AI 도구들이 점점 더 영향력을 행사함에 따라 상당한 관심을 받고 있습니다. 마티아스는 기계가 인간이 제어하거나 예측할 수 없는 행동을 수행할 때, 이러한 행동에 대해 인간을 책임질 수 없다는 것은 불공정하다고 강조했습니다.

마티아스에 따르면, 책임 격차는 무책임의 심연으로 확장되고, 현재의 해결책은 부족하다고 합니다. 그러나 연구원 존 다나허는 책임 격차가 항상 부정적인 현상은 아닐 수 있다고 주장합니다. 다나허는 도덕적인 책임이 비난과 처벌에 초점을 과도하게 맞출 수 있으며, 도덕적으로 동등한 선택을 해야 하는 상황에서 불공정할 수 있다고 주장합니다.

책임 격차의 한 가지 잠재적 이점은 AI가 이러한 도덕적으로 모호한 상황에서 공정한 의사결정자 역할을 할 수 있다는 점입니다. 예를 들어 COVID-19 팬데믹 초기의 의료 유야에서 AI 시스템은 인간의 의사결정자가 경험할 수 있는 도덕적인 오점을 방지할 수 있습니다.

마티아스는 알고리즘이 결정을 내릴 수 있도록 하는 아이디어에 대해 반대합니다. 그는 AI가 공정하지 않고, 오히려 문화적, 종교적, 정치적 편견에 영향을 받는다고 지적합니다. 그는 중요한 선택을 위임하기 전에 AI의 의사결정 근거를 이해하는 것의 중요성을 강조합니다. 마티아스는 책임 격차에 대해 긍정적인 면을 보지 못하지만, 이를 사회의 기존의 책임 부족의 넓은 맥락에서 바라보아야 한다고 믿습니다.

마티아스는 사회가 이미 AI가 생성하는 책임 격차보다 훨씬 큰 책임 격차에 양도되어 왔다고 주장합니다. 구글 맵 내비게이션 오류와 주요 금융 위기 후의 책임 부재와 같은 사례가 이를 보여줍니다. 이러한 책임 격차가 인간 행동에 영향을 미치며 윤리적 결여로 이어지는지에 대한 의문이 제기됩니다.

마티아스는 사회가 이미 책임 없는 사례에 익숙해져 왔으며, 애플 세금 분쟁, 다국적 기업과 개인의 불평등 대우와 같은 예를 인용합니다. 알고리즘에 의한 의사결정의 확대는 이러한 도덕적 냉소를 악화시킬 수 있다고 그는 말합니다. 그러나 마티아스는 AI가 주요 문제가 아니라 자본주의 체제 내에서 더 큰 문제의 표현이라고 주장합니다. 그는 사회적 정의의 전반적인 부족, 책임 회복의 필요성 및 산업 로비, 정치가, 부유한 엘리트들 간의 권력 동력 관계에 대처해야 한다고 강조합니다.

출처:
– 가르웨이 대학 강사 존 다나허
– 아이리시 타임스

Tags: