대화형 인공지능과 전생체험 그리고 개꿈
- 974
- 7
- 0
요즘 ChatGPT를 비롯한 대화형
인공지능이 대세다. 누군가는 영어공부하기 너무
쉬워졌다고 하고, 누군가는 수년 내에
사무직 일자리를
다 빼았아
갈 것이라고
한다. 대학에서는 리포트나
논문의 위작여부를
어떻게 가려낼
지 교수들이
걱정하고 있다고
한다. 지나친 염려와
낙관적인 기대가
혼란과 더해져
인공지능의 평가가
갈팡질팡하고 있다. 그런데 현재의 휴대전화처럼, 이것도 피하지 못하고
거의 강제로
사용하게 될
것 같다. “나, 휴대전화 안써!” 라든가 “카톡 사용
안해!” 라는 말을
지인으로부터 듣는다면
우리의 반응은
어떨까? 아마도 이런
생각이 들게
될 것이다. ‘제발 남들
하는대로 살자! 아니면 너 혼자
산에 들어가서
살든지!’ 그래서 우리는
귀찮을 때도
많지만 휴대전화를
부적처럼 몸에
딱 붙이고
산다. 이런 방식과
비슷하게, 좋든 싫든
‘쳇’을 사용할 것이다. 그러면 어떤 현상이
생길까? 어떤 질문이든
받자마자 생각하기에
앞서 먼저
쳇창을 두드릴
것이다. 그래서 내생각은
없고 쳇생각으로
대체될 것같다. 그리고 명석한 순서는
누가 쳇과
가장 비슷한
답변을 했는지로
정해질 것이다. IT기기를 잘
다루면 스마트해
보이고 못다루면
멍청하게 보이는
것처럼 말이다. 그래서 인간은 점점
머리는 사라지고
겉가죽만 남게
되는 것이
아닐까? 가죽만 남는다는
말은 외모가
더 중요하게
될 것이라는
이야기다. 어차피 대화소재와
정보는 쳇이
다 제공해줄
터이니까…
자! 여기까지 하고 이제
시간을 뒤로
좀 돌려보자. 여러분들은 ‘전생체험’이라는 이야기를 들어보았는가? 한참전에 유행했던 신드럼이다. 무당들에 의해서가 아니라, 정신과 의사들에 의해
만들어진 신드럼이었다. 처음에는 일종의 심리치료법으로
시작했다. 전형적인 사례는
이런 것이다. 평생 아버지로부터 이유없이
미움을 받아
마음에 상처가
많은 딸이
정신과 상담을
받는다. 최면 의자에
눕혀지고 그녀는
전문가의 도움으로
전생여행을 떠난다. “자, 이제 당신의 전생으로
여행을 떠납니다… 눈앞에 무엇이 보이나요?”라는 의사의 물음에
“…방이예요. 어두운 골방… 구석에서 어떤
남자아이가 울고
있어요… 엄마인듯한 여자가
아이에게 매섭게
야단치고 있어요. 우는 아이를 놔둔
채 엄마는
나가버리네요…” 최면이 끝나고
의사가 여자에게
말한다. 최면에서 본
그 아이가
지금 당신의
아버지이고, 그 엄마는
아이를 학대했던
계모인데, 바로 당신이라고… 그런데 이번 생에서
다시 만났지만
역할이 바뀐
것이라고… 이 말을
듣고 한참을
흐느끼다 마음을
추스린 여자는
조금 밝아진
목소리로 말한다. 이제 왜 아빠가
나를 그렇게
미워했는지 알게
되니 마음이
조금 시원해지는
느낌이다. 앞으로는
아빠를 좀
더 이해하려고
노력해보겠다… 이와 비슷한
사연들이 가득했다. 의사들은 주장했다. 생생한 묘사와
기억으로 미루어볼
때 아마도
그들의 전생은
사실인 것같다. 사실여부를 증명할 수는
없다고 하여도, 치료효과는 확실하니 의학적으로는
분명히 의미가
있다고 생각한다는
말을 덧붇였다.
우리 모두는 우리의
전생이 몹시
궁금할 것이다. 만약에 전생이 존재한다면
말이다. 그런데 그런
최면에 의한
‘전생 복기’는 누가
어떻게 사실여부를
입증해줄 것인가? 설사 그 전생
여행이 사실이라고
하더라도, 과거의 삶을
현생으로 소환하는
것은 철학적으로
그리고 윤리적으로
온당한가? 끝없는 질문이
이어질 수
있는 문제다. 그런데 어느 날
갑자기 이
모든 전생체험
유행이 하루아침에
중단되었다. 이유는 정신과
학회에서 정식으로
반대하는 의견을
내어놓았기 때문이다. 최면에 의한 전생체험의
진위를 신뢰할
수 없고, 과거의 기억은 현재의
상황, 경험 그리고
희망과 섞여
무작위로 나올
수 있기
때문에 전생치료는
자제되어야 한다는
의견이었다.
대화형 인공지능은 데이터를
수집해서 분석
후 답해주는
인공지능이다. 그러니까 데이터
요약 전문가인
셈이다. 그런데 위의
전생체험처럼, 인터넷에 깔린
데이터의 진위여부를
확신할 수
있는가? 가짜 뉴스로
도배된 인터넷
정보를 찾아서
편집한다면, 아니면 원데이터
생성자가 자기에게
유리한 정보들만
남기고 불리한
정보들을 청소해버린다면? 만약 주식투자를 인공지능에게 맡긴다면 어떻게
될까? 더 힘있는
자들이 정보를
조작하여 개미들을
몰살시키고 자신들의
이익을 극대화한다면, 그리고 이런 주가조작을
아주 은근하게
했다면 과연
법으로 처벌
가능할까? 대화형 인공지능을
사이버 영어교사
정도로 사용한다면
문제가 없겠지만, 더 리스크가 큰
곳에 사용한다면
그곳에는 훨씬
더 큰
함정이 기다리고
있을 것이다. 아마도 컴퓨터 바이러스로
돈을 번
해커집단들에게는 훨신 더 큰 기회가
제공될 것이고, 개인들은 지뢰밭을 걸어
다니는 꼴이
될 것이다. 이 모습이 우리가
꿈꿔왔던 유비쿼터스의
모습은 분명
아니다. 그런데 정부들마저
경쟁적으로 개발에
나서는 분위기인데, 과연 개인이 총체적
분위기를 거역할
수 있을까? 몇몇 소수의 전문가들이
인공지능의 위험을
경고했지만, 판도라의 상자는
이미 열렸다. 이제 누가 이
열차를 멈출
수 있을
것인가? 나는
그저 인공지능이
더 이상도
말고 그냥
개꿈 정도로
끝났으면 좋겠다. 하지만 이 공포스러운
꿈이 점차
현실세계로 나오려
하고 있으니
두렵다.