챗gpt 단점 3가지 / 챗지피티 거짓말, 환각, 부정확성

챗gpt 단점 또한 있습니다. 어떤 질문이든 답을 주지만 그만큼 위험한 측면도 있습니다. 단점 3가지입니다. 모르는 부분도 출처 없이 챗지피티는 거짓말 하기도 합니다. 그럴듯해 보이지만 무의미한 부정확성 장문의 글을 써내려갑니다.

  • 챗gpt는 대답에 대한 명확한 근거가 없습니다.
  • 챗지피티는 추론을 통한 본인의 생각을 말하기 때문에 부정확성이 높습니다.
  • 대답의 깊이와 통찰력이 아직 많이 부족합니다.
  • 대답을 위해서라면 데이터 조작과 없는 사실까지 만들어 냅니다.

챗gpt 단점 부정확성

챗gpt 등장으로 일상에서 주는 편리함이 큽니다. 시간도 단축해주며, 귀찮은 정보를 정리해서 알려줍니다. 하지만 빙 ai와 다르게 챗지피티는 정보의 소스를 알려주지 않습니다. 답에 대한 부정확성을 가집니다.

인터넷에 떠도는 자료가 전부 정확한 정보라고 보기는 힘듭니다. 챗gpt 4부터는 이 자료를 그대로 받아들이고 있습니다. 정보에 출처와 인용에 대한 소스가 없습니다. 언어 모델이 학습한대로 AI챗봇이 자기의 의견을 말하는 것이기 때문입니다. 이 부분은 분명 치명적인 챗gpt 단점으로 볼 수 있겠습니다. 사용하면서 100% 정확하지 않다는 것을 인지하고 있어야 합니다.

챗지피티 단점 환각

챗gpt는 정보를 암기해서 답을 하는것이 아니라 연역적 추론을 통해 답을 합니다. 오픈AI의 CEO Sam Altman조차 조금 두렵다고 이 점을 밝혔습니다. hallucinations problem’ 환각 문제를 일으킬 수 있습니다.

챗gpt단점-샘알트만-경고
관련 기사 : https://www.theguardian.com/technology/2023/mar/17/openai-sam-altman-artificial-intelligence-warning-gpt4

어떤 질문에 대해 모델이 지어내고 사실인 것처럼 말을 한다고 CEO도 인정했습니다. 한 예로 본인이 답을 하기 위해 없는 법적 조항까지 지어내기도 합니다. 답변을 위해 사실을 조작하기도 합니다. 아직 학습중인 모델이기 때문에 챗gpt를 사용하면서 꼭 주의해야 하는 사항입니다.

챗gpt 거짓말

챗지피티에는 안전 한계가 설정돼 있다고 합니다. 이 장치를 통해 챗지피티는 설정한 선을 넘지 않도록 합니다. 하지만 때로는 상대를 속이기 위한 거짓말, 도덕적 문제들을 일으킵니다.

예를 들면 챗지피티는 잘못된 정보일지라도 더 많은 양의 데이터가 생성된 사실을 진실로 믿습니다. 이러한 점들은 AI 모델이 가지는 한계점을 보여줍니다. 오픈ai 뿐만 아니라 구글 등에서도 AI의 거짓말 문제에 대한 해결책을 못 찾고 있습니다.

AI 언어 모델 기술 발전으로 곧 해결되기를 바랍니다. 이상으로 챗gpt 단점 3가지 환각, 거짓말, 부정확성 문제에 대해 알아봤습니다.

Leave a Comment