챗GPT가 쏘아 올린 인공지능 윤리

[박선춘의 여의도 빅데이터]인공지능 윤리, 일상의 실천적·보편적 원칙으로 뿌리내려야

씨지인사이드 박선춘 대표 입력 : 2023.03.06 11:27
▲박선춘 씨지인사이드 대표
“인공지능은 불이나 전기보다 심오하다.” 구글 최고경영자(CEO) 순다르 피차이의 말이다. 인공지능(AI)은 더 이상 미래의 혁신기술이 아니다. 이미 전기처럼 우리 생활 어디에서든 인공지능이 발견되고 사용된다. 인공지능이 일상인 시대를 살고 있다.

챗GPT 열풍이 폭발적이다. 과거 체스 AI 딥블루나 바둑 AI 알파고가 주었던 충격과는 차원이 다르다. ‘검은 백조(Black Swan)’에 비견되기도 한다. 모두가 무관심할 때 홀연히 나타나 기존 질서를 충격적으로 파괴하는 느낌이다. 아이폰 등장에 비견될 정도다.

너무나도 유능한, 그러나 위험한
“우리가 두려워해야 할 것은 자각을 하고 인간에게 반기를 드는 로봇이 아니라, 목표를 너무 능숙하게 처리해서 무심코 잘못된 목표를 주었을 때 인류를 말살시킬 수 있는 기계다.” 버클리 대학의 스튜어트 러셀 교수가 쓴 <양립할 수 있는 인간: AI와 통제의 문제(Human Compatible: AI and the Problem of Control)> 책의 내용이다. 기술혁신의 아이콘인 일론 머스크는 한 술 더 뜬다. “규제에서 벗어난 AI 개발은 핵폭탄보다 더 위험하다.” 고인이 된 스티븐 호킹 박사도 “인공지능이 인류의 마지막 기술일 수 있다”며 생전에 인공지능에 대해 경고를 반복했다.

인공지능의 유능함에 대한 기대가 일반적이지만 반대의 목소리도 귀담아들을 필요가 있다. 챗GPT 역시 편향된 정보 유포, 표절의 일상화, 가짜 뉴스의 폭증, 사용자의 학습능력 저하 등 여러 우려에 직면해 있다.
실제로 홍콩대학교는 최근 대학 내 모든 수업, 과제 및 평가에 챗GPT 또는 다른 AI 도구 사용을 금지했다. 미국 뉴욕시 교육부도 모든 공립고에 챗GPT 사용을 금지했고, 프랑스 파리정치대학(시앙스 포)도 챗GPT나 유사 AI 도구의 사용을 전면 금지했다.

인공지능 윤리, 궁극적으로 인간의 윤리 문제
인공지능 기술이 발달할수록 인공지능 윤리 문제도 더욱 중요한 이슈로 대두될 수밖에 없다. 챗GPT가 등장한 이후엔 더욱 그렇다. 챗GPT가 열어선 안 될 뚜껑을 열어버려 온갖 재앙이 세상에 퍼지게 될지도 모른다는 우려를 표하는 이도 있다. ‘인공지능 포비아(AI Phobia)’ 수준이다.

필자가 챗GPT에게 물어보았다. “네가 판도라의 상자를 열었다는 의견에 대해 어떻게 생각”하느냐고. 챗GPT의 답변을 요약했다.

“인공지능 언어 모델로서, 나는 개인적인 믿음이나 의견을 가지고 있지 않다. ‘판도라의 상자’라는 개념은 종종 어떤 행동이 예상치 못한 부정적인 결과를 초래하는 상황에 대한 은유로 사용되지만, 챗GPT는 긍정적인 목적과 부정적인 목적 모두에 활용할 수 있는 도구다. AI 언어 모델로서, 내가 할 수 있는 한 도움이 되고 유익한 반응을 제공하도록 프로그램돼 있어, 윤리적으로 책임감 있게 사용되는지 확인하는 것은 사용자에게 달려 있다. 궁극적으로, 이러한 기술들이 어떻게 개발되고 사용되는지를 결정하고, 그들의 행동에 책임을 지는 것은 개인과 사회 전체에 달려 있다.”

챗GPT의 의견에 필자는 전적으로 공감한다. 인공지능 윤리는 궁극적으로 개발자와 사용자의 윤리로 귀결되기 때문이다. 인공지능 윤리는 추상적 관념에 머물러선 안 된다. 인류를 위한 실천적 지침이자 보편적 원칙으로 뿌리내려야 한다.

▶본 기사는 입법국정전문지 더리더(the Leader) 3월호에 실린 기사입니다.
yunis@mt.co.kr

많이 본 기사

PDF 지면보기