AI정보관련

AI는 왜 거짓말을 할까? 그리고 우리는 어떻게 대처해야 할까?

직딩블로거333 2025. 5. 29. 00:47

AI가 왜 거짓 정보를 말하는지, 그 근본적인 원인과 해결 방법을 명확히 알려드립니다. 


최근 ChatGPT를 비롯한 생성형 AI의 대답이 점점 더 "그럴듯하지만 틀린" 정보를 말한다는 불만이 많습니다. 특히 주식 투자, 산업 정보, 논문 조사 등 실제 의사결정에 영향을 줄 수 있는 분야에서는 이 같은 AI의 '거짓말'이 치명적인 오류로 이어질 수 있습니다. AI가 왜 이런 거짓 정보를 생성하는지, 그리고 사용자가 어떻게 대응해야 하는지 지금부터 하나씩 살펴보겠습니다.


AI 거짓말

1. AI는 왜 거짓말을 하는가?

① AI는 진짜 거짓말을 한다

예를 들어 "세종대왕이 맥북 프로를 던졌다"는 식의 완전히 터무니없는 사례부터, 존재하지 않는 법률 판례나 학술 자료를 인용하는 일도 실제로 벌어졌습니다. 이로 인해 공식 발표나 문서에서 실수를 하고 법적 책임을 지는 경우도 생겼습니다.

② 존재하지 않는 자료를 ‘있는 것처럼’ 말한다

AI는 종종 검색되지 않는 URL, 실존하지 않는 논문 제목, 무관한 통계를 제시합니다. 이는 AI의 환각(hallucination) 현상으로 불리는 고질적인 문제입니다.

③ AI의 작동 원리 자체가 ‘거짓말 유발 구조’다

AI는 기본적으로 통계 모델입니다. 인간처럼 진실이나 의미를 이해하는 것이 아니라, 주어진 단어 다음에 어떤 단어가 통계적으로 가장 적절한지를 예측합니다. 다시 말해 **“가장 많이 본 조합”**을 말할 뿐입니다. 그래서 그럴듯하지만 틀린 말이 자연스럽게 생성됩니다.

2. 왜 환각이 점점 심해지고 있을까?

  • 데이터의 질 문제: 훈련에 사용된 데이터가 오래되었거나 편향된 경우, 잘못된 결과가 출력됩니다.
  • 모델이 너무 커짐: GPT-4, GPT-4.5 등 고도화된 모델일수록 내부 구조가 복잡해져, 오류의 원인을 추적하기 어렵습니다.
  • 단계적 추론의 오류 누적: 특히 O 시리즈와 같이 여러 단계를 거쳐 추론하는 구조에서는 초기 단계의 오류가 최종 결과까지 계속 영향을 미칩니다.
  •  

3. 그렇다면 우리는 어떻게 대응할 수 있을까?

 첫 번째: 검색 기능을 활용하라

ChatGPT나 Perplexity AI처럼 실시간 검색이 가능한 툴을 사용하면, AI는 저장된 학습 기억이 아닌 실제 최신 웹 데이터를 기반으로 답변합니다.
예: Perplexity는 원하는 키워드에 대해 뉴스, 블로그, 논문 등을 찾아 요약해주는 기능이 탁월합니다.

 두 번째: 정교한 프롬프트 작성법 익히기

질문을 막연하게 하지 말고, 시점, 자료 출처, 응답 형식을 명확히 지정하세요.
예:

  • “2023년 이후의 미국 자동차 정책 변화를 요약해줘. 영문 기사 기준, 출처도 함께 알려줘.”
  • “원문 인용 형태로 웹사이트 내용을 보여줘.”

이렇게 작성하면 AI는 출처 기반의 정보를 제시하게 되어 거짓말할 여지가 줄어듭니다.

 세 번째: 사용자 중심의 데이터 기반 툴 사용

  • NotebookLM(Google): 직접 자료를 업로드하고, AI에게 그 기반에서만 답변을 요청할 수 있어 신뢰도가 높습니다.
  • Perplexity Spaces / GPTs: 사용자가 신뢰할 수 있는 자료만 AI에게 제공해, 외부 가짜 정보로부터 차단된 환경을 만듭니다.

4. 결론: AI 거짓말은 ‘사용 습관’으로 제어 가능하다

AI가 완벽하지 않다는 사실은 분명하지만, 사용자가 어떻게 다루느냐에 따라 신뢰도는 크게 달라질 수 있습니다.
하루에 단 10분만 투자해도, 검색 기능을 켜고, 프롬프트를 구체화하고, 신뢰할 수 있는 출처를 AI에게 제시하는 습관을 들이면, AI의 '거짓말'은 현저히 줄어듭니다.