인공지능 환각의 위험성
인공지능(AI)에서 할루시네이션은 트레이닝 데이터로 학습한 결과가 아니라 무작위로 생성된 확신적인 답변을 내놓는 현상입니다. 예를 들어, 챗봇에서 테슬라의 소득과 관련한 데이터가 없는 경우에는 무작위 숫자를 생성한 후 해당 숫자를 테슬라의 소득으로 언급하는 등의 일이 벌어집니다. 이는 인간심리학에서의 환각 현상과 유사하게 작동하며, 할루시네이션은 AI의 중요한 걸림돌 중 하나입니다. 세종대왕이 맥북을 던져?…챗GPT의 '환각'에 속지 않으려면 하지만 이러한 할루시네이션은 인간심리학에서의 환각과 유사하게 작동합니다. 인간도 자신이 보고 듣는 것이 실제인지 아닌지를 구분하는 능력이 필요합니다. 마찬가지로, AI도 실제 정보와 무관한 정보를 구분할 수 있는 능력이 필요합니다. AI가 할루시네이션에 빠지는 이유..