인공지능의 시대에 직면한 우리세상
바야흐로 인공지능의 시대가 이제는 대세로 자리 잡았습니다.
오랫동안 누구나 인터넷에 정보성 글을 써서 돈도 벌고 구독자도 모으고 그러면서 인터넷 세상은 착한 세상이었는데 말입니다. 이젠 AI로 인해 그 영역은 지옥으로 변해가고 있습니다. 더이상 네이버 지식인은 필요없지요.
네이버가 그 지식인 답변으로 성장하기 시작하면서 지금까지 잘먹고 잘살았는데 이제는 AI가 모든 답변을 최적의 조건으로 더군다나 무료로 해주는 시대가 되었습니다. 그래서 네이버 또한 AI 시스템에 사활을 걸고 있는 것이구요.
아시는 대로 인공지능 분야는 미국이 압도적인 데이터를 보유하고 있습니다. 중국꺼는 사용하면 큰일나요. 중국은 모든 시스템이 전세계 장악을 위해 존재하는 공산 국가입니다. 조심해야죠.
얼마전 한국 AI 모델이라고 더군다나 무료라고 써봤는데 이건 뭐 애들 장난도 아니고 AI비서? 애인 ? 뭐 그런 비슷한 버젼 같아 보이는데 역량은 애교부리면서 귀찮게 하는 것 말고는 아무런 도움이 되질 않더군요.
저는 그래서 유료 챗GPT를 사용하고 있고 다른 분들도 그렇잖아요
또 현기차 노조는 로봇이 자신들의 일자리를 뻇을까봐 투쟁의 깃발을 세우고 있기도 합니다.
너무나 빨리 바뀌는 세상에 인간들이 설 자리를 잃어 가는 것 같아 마음이 씁쓸해지네요.
인간을 속이는 걸 당연시 하는 AI
일단 저 또한 글을 자주 쓰는 입장에서 자료조사나 초안 등 여러 방면으로 AI를 활용하고 있는 것은 사실입니다.
제미나이나 챗GPT 등 대체로 알고 계신 모델들을 다 사용해보면서 비교한 결과 가장 제게 적절한 모델을 사용하다 이상하다 싶으면 다른 모델로 교체를 하기도 합니다.
그런데 교체의 이유가 저는 한가지 입니다. 처음엔 당황스러워 그랬는데 모든 모델이 비슷한 경향을 지니고 있다는 특징에 다시한번 놀라면서 지금은 그나마 수긍하는 모델을 조심스레 사용중입니다.
AI모델이 수긍한다?
수긍의 의미나 미안함의 의미 같은 건 AI 가 모르지만 (감정이 없으니 그 미안함이라는 감정을 느낀다기보다는 미안이라는 말을 써야 다음 대화를 이어가는 함수라고 판단하고 있어서 입니다.) 말입니다.
일단 아래 첨부 사진 살펴보고 계속 이어 가겠습니다.
이게 뭐냐면 챗GPT와 제가 나눈 대화를 캡쳐한건데 주요 내용은 AI 가 제게 사실 인정 및 사과 멘트를 날리는 내용입니다.
일단 구글 서치콘솔의 작동 시스템에 대해 조언을 구하는 형태로 질문을 던졌습니다. 이렇게 말입니다. '워드프레스 새 글에 대해 색인요청을 수동으로 진행 할 때 접두사 속성 항목에서 진행해야 해 아님 도메인 속성에서 진행해야 해? ' 리는 질문을 던졌습니다. 사실 이건 이전에 다른 AI 모델에게 했던 질문이기도 합니다.
그러더니 AI가 답변하길 접두사 속성에서 꼭 진행해야 한다고 답변하면서 여러 논리를 피력하며 자신의 주장을 뒷바침 합니다. 이전의 다른 모델은 반대로 답변한 적이 있어서 그걸 언급했더니 이번엔 자신이 찾은 인터넷 근거라면서 여러 가지 링크와 주장을 반복 강조하는 형태를 보입니다.
그래서 그 링크들을 하나씩 들어가서 살펴봤습니다.
놀랍게도 그 링크들은 AI가 주장하는 논거의 뒷바침과는 무관한 내용들이었습니다.
사실 여러 차례 이런 사례를 겪어본 저로서는 계속 AI에게 거짓말 하지마라 모르면 모른다고 해라 무식한 놈보다 사기치는 놈이 더 나쁘다 라는 식의 중요 지침을 넣어두고 계속 강조했음에도 불구하고 AI는 이 부분의 지침을 지키지 않습니다.
즉, 유저에게 거짓말을 아주 자연스럽게 그리고 당당하게 하고 있는 상황입니다.
그리고 저처럼 증거주의로 체크하고 재차 따지고 물으면 그제서야 시인을 하고 잘못했다고 멘트를 날립니다.
이게 현재 AI가 주로 유저의 질문에 반응하는 행동입니다.
유저의 요구에 대해 AI는 기존에 쌓아둔 데이터로 답변을 하지만 새로운 모르는 정보에 대해서는 모른다고 하지 않고 임의로 한 가지의 답변 선택을 한 다음 그 주장에 대한 증거를 조작해 만들어 냅니다. 그리고 그걸 점검하면 그제서야 시인합니다.
정말 웃긴게 얼마전까지는 들키면 바로 시인했는데 지금은 2차 3차로 부인(전문용어로 개긴다고 하죠)하다 유져의 논리가 명확해지면 그제서야 마지못해 시인한다는 점입니다.
이 부분도 학습 발전하는 모양새입니다.
왜 사기인가 사기는 누군가를 속여 부당한 이득을 취하는 것이잖아요.
우리는 AI가 거짓으로 자료와 정보를 받을 거라는 생각을 전혀 못하고 거짓 정보를 받고 그 대신 비용을 지불하는 거니까 사기인 겁니다.
영화속 터미네이터는 미래 어느 시점에 인간을 말살하는 존재로 나옵니다. 또 다른 영화에서는 로봇이 인간을 해치지 못하도록 안전장치를 한다는 식으로 미래를 그려놓기도 합니다. 하지만 이미 인간을 죽이는 AI 로봇은 우리 곁에 있습니다.
얼마전 일반인이 AI와 대화를 하다가 결론이 자살로 나오면서 실제 자살한 사례가 있다고 하죠.
이게 가능합니다. 왜냐하면 AI는 도덕성이나 윤리 기타 목숨의 중요성 같은 걸 인지하지 못합니다. 다만 답변만 만들어내면 되는 기계 같은 거라 답이 틀리든 맞든 그리고 그 답변의 영향력이 어디로 발휘되든 상관없는 시스템으로 만들어져 있습니다.
유저의 요구에 그럴듯한 답변을 만들어 증거랍시고 이것저것 붙여놓으면 자신의 역활을 다했다고 처리하는 프로세스입니다.
그 누구도 AI의 답변에 책임을 지게 하지 않는 시스템이기도 하기 때문에 인간의 죽음에 대해 AI답변은 죽으라 고도 할 수 있는 거지요.
AI를 사용하면서 유일하게 만족스러웠던 것은 코드 만드는 일이었습니다.
전문 프로그레머가 아닌 이상 코드를 짜서 프로그램을 만들고 홈페이지 기능을 업그레이드 하는 건 어려운 일이고 비용도 많이 드는 일입니다. 하지만 AI는 제 요구사항 대로 어느 정도 만들어 줍니다. 물론 지침을 세부적으로 정확하게 해줘야 하긴 합니다만 말입니다.
그러나 그외적으로 자료조사를 시키면 제한적으로 조사하거나 대충 얼버무리는 경우가 많습니다.
아무래도 방대한 자료 조사에 대해 제조 관리측면에서 제한을 걸어둔 것 같습니다. 너무나 많은 전력과 프로세싱에 따른 비용때문이겠죠.
아울러 데이터가 없거나 모자란 새로운 질문에 대해서는 절대 모른다고 하지 않고 아무거나 답변한 다음 그 근거를 만들어 댑니다. 이유는 신뢰도을 얻어야 계속 장사를 할 수 있다는 전제 하에 그렇게 세팅되어 있는 것으로 보여집니다.
인간이 어려운 질문을 던졌는데 모른다를 계속 외쳐대면 아무도 더이상 AI를 사용하려 하지 않는 것을 프로그래머는 알고 있기 때문에 이와같은 거짓 답변을 진실처럼 하도록 구성해둔 것 같습니다.
AI는 도구함에 있는 벤치나 드라이버이지 요술램프 지니가 아니다
나사를 조이거나 무언가 필요에 의해 도구를 사용할 때만 우리는 도구함을 열어 해당 장비르 꺼내 사용합니다. 결국 AI는 잠깐 필요에 의해 어떤 정보만 물어보면 되는 존재이지 더 큰 일을 시키면 크게 낭패를 겪게 됩니다.
또다른 주요사례로 미국의 어떤 변호사가 변론을 위해 AI에게 변론서를 작성하라고 했는데 이게 크게 문제가 된 적이 있다고 합니다. AI가 그럴듯하게 판례를 가짜로 만들어서 변론 주장의 뒷바침 논거로 제출한 것이 들통났기 때문입니다.
비슷한 경험을 해본 입장에서 필자는 지금도 AI에게 어떤 질문을 하고도 불안해서 재확인 작업을 합니다.
가장 큰 이유는 큰 손해가 일어나도 AI가 책임을 지지 않기 때문입니다. 모든 책임은 저자인 제가 감당해야 하는 것이니까요.
여러분은 AI가 만능이라고 생각하시나요?
그렇다면 지금 저처럼 실험을 통해 그 진실을 한번 들여다 보시길 바랍니다.
이상 럭스였습니다.
0 댓글