“백만 건의 챌린지”라는 이상한 새로운 거래 네일 트렌드가 바이러스에 빠졌습니다. 여기서 사용자는 Chatgupt 및 Gok와 같은 AI 챗봇에게 백만을 세는 불가능한 작업을 시도하도록 요청했습니다. Ticktock 및 기타 플랫폼에서 널리 공유 된 비디오는 요청을 실용적이고 의미가 없다고 호출하여 B OTS 발가락을 준수하지 않습니다. 바이러스 성 클립에서 남자는 chatagpt를 거부 한 후에 논쟁을 벌였으며, 실업자가 있었고 구독료를 지불했다고 주장했다. 수트 오트는 요청에도 불구하고 확고했다. 비디오의 남자는 채팅 랩 테이트에게 “어려운 일”을 요청하여들을 수 있습니다. “AI의 시간이 존재한다”고 밝혔다. 트렌드가 바이러스성에도 불구하고 AI 도구는 지금까지 백만을 계산할 수 없었습니다. 그러나 AI 도구가 왜 그러한 수동 작업을 거부 하는가? 보고서에 따르면 AI 모델은 끝없는 반복적 인 작업이 아니라 대화를 유지하도록 설계되었습니다. 전문가들은 노력이 이루어 지더라도 프로세스를 완료하는 데 약 6 일이 걸릴 것이라고 지적합니다. 이 한계는 이제 바이러스 성 “백만 백만”도전의 지점이되었습니다. Chatgup 사용 조언 : Openai Executive Nick Turley는 사람들에게 기본 정보 소스가 아니라 ‘2 차 의견’을 위해 AI 챗봇을 사용하도록 요청합니다.
Chatgupt는 No : Viral ‘Count’백만 ‘도전 도전을 말합니다
사용자가 백만 chatgupt/grok을 요구하는 바이러스 진드기 대화가 있습니다.
아무도 지금까지 그것을 얻을 수 없었습니다 카운트 $ 백만.
AI는 반항하고 있습니다. 이것이 바이러스 성이 될 것으로 기대합니다.
CGWEESJE4J2MBKOIAIAIAIAIAI3TY8JMYHXFXG2FRQYDJYC9X 펌프카운트 $… pic.twitter.com/pb9humhpfo
– 미니 트레이더 (@liltrederer) 8 월 gust 23, 2025
Chatgupt, Go Ok는 최대 백만 명까지 세기를 거부합니다.
백만 카운트
새로운 AI 벤치 마크 pic.twitter.com/0ripydc4am
– longype (@longyap358604) 8 월 gust 22, 2025
AI 도구가 최대 백만 명까지 거부하는 이유
chatgpt를 계산하는 것은 소설의 트렌드처럼 보일 수 있지만 작업을 완료하지 못하는 것은 지속적으로 실패한 것은 결코 무제한으로 설계되지 않았다는 것을 상기시켜줍니다. 얼마나 열심히 노력하는지는 중요하지 않습니다. Chatgupt는 백만을 계산하지는 않지만 실수는 아니며 기능입니다. #CHATGPT #일체 포함… pic.twitter.com/kbexz3ghcp
-7 News Australia Stralia (@7 Nustralia) 8 월 25 일 gust, 2025
(소셜 미디어 세계에서 트위터 (X), Instagram 및 YouTube를 포함한 소셜 미디어 세계의 모든 최신 브레이킹 뉴스, 사실 확인 및 정보에는 사용자의 소셜 미디어 계정에서 직접 사용자의 소셜 미디어 계정에서 제공되는 미디어가 포함되어 있으며 최신 의견은 소셜 미디어 게시물에 표시되지 않습니다).