뉴스 | 컬럼 | 일반/컬럼 | 보도자료

[CIO] 칼럼 | LLM은 과학자가 아니다

야곰야곰+책벌레 2025. 9. 10. 09:48
반응형

 

 

칼럼 | LLM은 과학자가 아니다···소비재 기업이 알아야 할 AI 활용의 한계

AI는 아이디어를 제시하는 데는 유용하지만, 소비재(Consumer Packaged Goods, CPG) 산업에서는 실제 실험을 통해서만 효과가 확인되며, 이 검증 과정이 경쟁력을 결정한다.

www.cio.com

 

LLM은 이제 너무 자연스럽게 쓰고 있는 기술이다. 그렇다 보니 자연스럽게 의문이 생긴다. AI는 왜 과학적 실험을 수행하지 못하는가? 하지만 이런 태도는 위험하다. LLM은 세상을 바꾼 기술이지만 과학적 실험을 대체할 수 없다. LLM에 크게 의존하여 빠른 혁신을 하고 싶겠지만 과학은 언어 게임이 아니라는 것이다.

 

LLM이 과학을 수행할 수 없는 5가지 근본적인 이유

  1. LLM은 인과관계에 기반하지 않는다.
    LLM은 통계적 패턴을 학습할 뿐 인과 구조에 접근할 수 없다. "그럴듯하다"와 "실제로 작동한다" 사이에는 여전히 큰 간극이 존재한다.
  2. LLM은 물리적 세계와 상호작용할 수 없다.
    과학은 접촉의 영역이다. LLM은 과거 다른 이가 측정한 것을 언어로 재현하는 '간접 지식'을 생산할 뿐이다. 영감과 기획 단계에서는 유용할 수 있으나, 경험적 피드백과 직접 연결되지 않는 한 과학적 검증 능력은 없다.
  3. LLM은 새로운 현상에 취약하다
    가치 있는 발견은 알여진 영역의 경계에서 이뤄진다. 이곳은 데이터가 희소하거나 전혀 존재하지 않는 곳이다. LLM은 본질적으로 보간 엔진이기 때문에 LLM이 학습할 데이터셋 자체가 존재하지 않을 경우 취약할 수밖에 없다.
  4. LLM은 재현성 테스트를 통과하지 못한다.
    동일한 결과가 반복되지 않는다면, 그 발견은 인정되지 않는다. 하지만 LLM은 같은 질문을 입력하더라도 조금씩 다른 답변을 하게 되고 '환각' 현상도 존재한다. '출처'는 학습 파라미터가 믹싱 된 불투명한 결과물일 뿐이다. 
  5. LLM은 상관관계를 인과관계로 혼동한다.
    LLM은 상관관계를 찾는 데 뛰어나지만 과학에서 인과 없는 상관은 함정이다. 혁신에서 이 위험은 크다. 인과성을 밝혀내는 유일한 방법은 설계된 실험뿐이다.

LLM은 아이디어, 가설, 설계 옵션을 만드는 데 활용하되 데이터는 반드시 실험을 거쳐야 한다. 

 

 

 

반응형