챗gpt 단점 또한 있습니다. 어떤 질문이든 답을 주지만 그만큼 위험한 측면도 있습니다. 단점 3가지입니다. 모르는 부분도 출처 없이 챗지피티는 거짓말 하기도 합니다. 그럴듯해 보이지만 무의미한 부정확성 장문의 글을 써내려갑니다.
- 챗gpt는 대답에 대한 명확한 근거가 없습니다.
- 챗지피티는 추론을 통한 본인의 생각을 말하기 때문에 부정확성이 높습니다.
- 대답의 깊이와 통찰력이 아직 많이 부족합니다.
- 대답을 위해서라면 데이터 조작과 없는 사실까지 만들어 냅니다.
챗gpt 단점 부정확성
챗gpt 등장으로 일상에서 주는 편리함이 큽니다. 시간도 단축해주며, 귀찮은 정보를 정리해서 알려줍니다. 하지만 빙 ai와 다르게 챗지피티는 정보의 소스를 알려주지 않습니다. 답에 대한 부정확성을 가집니다.
인터넷에 떠도는 자료가 전부 정확한 정보라고 보기는 힘듭니다. 챗gpt 4부터는 이 자료를 그대로 받아들이고 있습니다. 정보에 출처와 인용에 대한 소스가 없습니다. 언어 모델이 학습한대로 AI챗봇이 자기의 의견을 말하는 것이기 때문입니다. 이 부분은 분명 치명적인 챗gpt 단점으로 볼 수 있겠습니다. 사용하면서 100% 정확하지 않다는 것을 인지하고 있어야 합니다.
챗지피티 단점 환각
챗gpt는 정보를 암기해서 답을 하는것이 아니라 연역적 추론을 통해 답을 합니다. 오픈AI의 CEO Sam Altman조차 조금 두렵다고 이 점을 밝혔습니다. hallucinations problem’ 환각 문제를 일으킬 수 있습니다.
어떤 질문에 대해 모델이 지어내고 사실인 것처럼 말을 한다고 CEO도 인정했습니다. 한 예로 본인이 답을 하기 위해 없는 법적 조항까지 지어내기도 합니다. 답변을 위해 사실을 조작하기도 합니다. 아직 학습중인 모델이기 때문에 챗gpt를 사용하면서 꼭 주의해야 하는 사항입니다.
챗gpt 거짓말
챗지피티에는 안전 한계가 설정돼 있다고 합니다. 이 장치를 통해 챗지피티는 설정한 선을 넘지 않도록 합니다. 하지만 때로는 상대를 속이기 위한 거짓말, 도덕적 문제들을 일으킵니다.
예를 들면 챗지피티는 잘못된 정보일지라도 더 많은 양의 데이터가 생성된 사실을 진실로 믿습니다. 이러한 점들은 AI 모델이 가지는 한계점을 보여줍니다. 오픈ai 뿐만 아니라 구글 등에서도 AI의 거짓말 문제에 대한 해결책을 못 찾고 있습니다.
AI 언어 모델 기술 발전으로 곧 해결되기를 바랍니다. 이상으로 챗gpt 단점 3가지 환각, 거짓말, 부정확성 문제에 대해 알아봤습니다.