ChatGPT 진지하게 좆같은 이유

작성자 정보

  • 바람의미로 작성
  • 작성일

컨텐츠 정보

본문

bt4fe6359df00da8bda13e871de386bedd


일단 0,1, 6,8,9 이 숫자들은 수수께기 매니아들에게 식상함. 

거꾸로 뒤집으면 숫자가 되는 숫자들로 하도 많이 써먹으니까.

그런데 chatGPT는 과연 문제를 풀수있을지 궁금했음.


밑은 대화내용 일부 캡쳐한건데, 길어서 다 읽지 않아도 됨.

요약하자면,

ChatGPT와 대화할때,

사용자가 정답을 모르는 상태로 대화하면, Chatgpt는 틀린답을 우기기 시작한다는거임.

그리고 틀린 논리를 계속 맞다고 우김.

난 가능한 정답을 말하라는 쪽으로 계속 유도했지만,

GPT는 계속 자기 답이 맞다는 식으로 1시간 넘게 우김.

진짜 존나 답답했음.

(참고로 유로 최신버전사용했음)



이걸로 코딩한다? 

불가능함. 

사용자가 정답을 알고있고 모든 코드를 다 검수해야함.



bt28be53456ae29ac12fccd6e2115ba463








[ 읽기 : 0 / 쓰기 : 0 / 댓글 : 10 / 공유 : 50 ]

관련자료

댓글 0
등록된 댓글이 없습니다.