최근의 연구에 따르면 인공 지능의 걱정스러운 경향이 있습니다. 모델이 허위 또는 오해의 소지가있는 정보를 생성하는 “환각”문제가 악화되고 있습니다.
OpenAI의 내부 조사에 따르면 3 및 4 미니 버전의 최신 모델은 이전 반복과 비교할 가능성이 높으며 3 개의 모델 사실 질문의 33%와 48% 및 48 분 버전에는 정보가 제작 된 정보가 있습니다.
Block LAI의 소프트웨어 엔지니어.
이 저하 된 신뢰성의 채택을 고려할 때, AI는 특히 잘못된 결정이 엄청난 재정적, 법적 또는 유명한 결과를 초래할 수있는 고등 산업에서 이니셔티브에 중요한 장벽이되었습니다.
이러한 이유로, 이러한 사업은 다른 옵션으로 간주되어야하며,이 옵션은 존재하며, 이는 적절한 솔루션을 제공 할 수 있습니다. 그러나 먼저 LLM이 인기있는 환각이 된 이유를 이해하는 것이 중요합니다.
환각이 악화되는 이유
Chatgpt와 같은 LLM이 실제로 작동하는 방식에는 근본적인 문제가 있습니다. 이 시스템은 통계 예측을 사용하여 피드백을 만들고 기본적으로 교육 데이터의 패턴을 기반으로 교육 된 추정치를 만듭니다.
Opeena 자체를 인식하여 GPT -4O와 같은 고급 모델의 전송은 무의식적으로 증가했습니다.
LLM은 통계를 사용하여 출력을 결정하기 때문에 때때로 잘못된 답변을 가져옵니다. 누군가가 말을하는 것처럼, 심지어 모든 변수를 설명 할 때와 마찬가지로, 때때로 (또는 빈번한) 실수를합니다. LLM이이를 수행하면이를 “환각”이라고합니다.
AI를보다 인간적인 국가로 만들기위한 개발자의 노력으로 인해 문제는 더욱 복잡해집니다. 현대 모델은 동정심, 민감한 이해 및 만족하려는 욕구로 프로그래밍됩니다.
이것들은 그들을 더 매력적으로 만드는 자질이지만, 불확실하지만 자신있게 대답 할 가능성이 더 높습니다. 그것은 완벽한 폭풍입니다 : AI는 근본적으로 믿을 수 없을 때 정통하게 들립니다.
최근의 Sky News 조사는 문제를 극적으로 강조하고 Chatzipt가 실제 팟 캐스트의 전체 전사 스크립트를 어떻게 직물로, 도전 할 때 두 배가되며, 지속 가능한 압력 하에서 오류 만 인정하는 방법을 보여줍니다.
이 연구는 많은 개발자들이 의심하는 것을 확인합니다. 새로운 모델은 실제로는 덜 신뢰할 수있는 것이 아니라 그다지 신뢰할 수 없습니다.
비즈니스에 어떤 의미가 있습니까?
사업의 경우, 이러한 환각은 AI 복용에 대한 불가피한 장벽을 제시합니다. 건강 관리, 돈, 법률 서비스 및 보험과 같은 부문에는 실질적인 결과가 있습니다.
일부 모델에서 현재 48% 오류율은 인간 감독 의무를 의무화하고 대부분의 AI 목표를 강화 도구로 극복합니다.
환각은 종종 비전문가와 관련이 없기 때문에 도전은 특히 강렬합니다. 그러나 LLM은 완전히 단조로운 법적 선례, 치료 조언 또는 재무 분석을 만들기 위해 훌륭한 소리를냅니다.
종종 인식 된 패턴이 뒤 따르는 인간 결함과 달리 AI 환각은 완전히 무작위 일 수 있으며, 이는 주제에 대한 기술이 없으면 거의 불가능합니다.
이러한 시스템이 얼마나 빨리 배치되는지에 비추어 볼 때이 예측되지 않은 것은 훨씬 커집니다.
AI에 대한 엔터프라이즈 투자의 심각성에서 회사는 파일럿 프로젝트에서 본격적으로 배치하기 위해 서두르고 있습니다.
분명히, 영감은 빨리 가져 가거나 읽을 위험이 있습니다. 그러나 통합 경쟁에서 환각의 위험에 대해 얼마나 많은 책임이 있습니까? 그 동안 우리는 심각한 결과를 보았습니다.
애플은 그의 AI- 노출 된 뉴스 경보를 돌려야했고, 소수 민족은 법정에 대한 인용문으로 법원의 제출에 걸렸다.
채택이 가속화되면 이러한 이벤트는 곱합니다. 대신, 우리는 AI에 대한 자신감을 보게 될 것이며 거래자들은 어려운 질문을해야합니다. 앞으로 더 신뢰할 수있는 길이 있습니까?
다른 방법 : Neurosamblick AI
업계가 LLM에있는 동안 일부 회사는 기본적으로 다른 접근 방식을 채택하고 있습니다.
Livikey에서 우리는 우리가 개발 한 “Neurosimbolic ai”라고 말합니다. 그것은 기존의 신경망을 기호 논리에 부착하여 각각의 강도를 얻는 하이브리드 시스템입니다.
상징적 인 주장은 명확하고 논리적 인 규칙을 사용하여 지식을 인코딩하기위한 오래되고 잘 확립 된 방법입니다. 정보를 안정적인 정보로 제시합니다. 즉, 소프트웨어가 잘못 처리하거나 설명 할 수 없습니다. 이것은 Excel에서 사용하는 스프레드 시트 수를 허용하는 것과 동일한 기술입니다.
여기서 주요 차이점은 결정론입니다. LLM은 다른 질문에 대답 할 수 있지만, 상징적 시스템은 항상 동일한 입력에 대해 동일한 출력을 생성합니다.
더 중요한 것은, 그들이 아무것도 모른다면 인정할 수 있다는 것입니다. LLM이 부족한 통제 산업에서 중요한 능력입니다. 두 통합을 통해 사용자는 LLM의 자연 언어 사용뿐만 아니라 상징적 모델의 신뢰성을 활용할 수 있습니다.
앞으로
언어 모델의 스케일링이 결국 환각을 제거한다는 생각은 불확실하게 불확실 해 보이기 시작합니다. 이 모델은 기초의 기초가 아닌 통계적 패턴에 기반을두고 있습니다. 이는 일시적이지 않고도 제한이 내재 될 수 있음을 의미합니다.
더 많은 데이터와 더 큰 모델에 의존하는 대신 통계 교육과 더 구조적 논리와 결합하는 방법 인 대체 경로를 탐색해야 할 때가 될 수 있습니다.
비즈니스의 경우 그 영향이 완료됩니다. AI는 특별한 약속을 유지하지만 현재 모델의 생성은 고도로 스테이크 응용 프로그램에 대한 준비가되어 있지 않습니다.
미래에는 신경망의 유연성을 신경 논리의 신뢰성과 결합하여 광범위한 환각의 치명적인 비용없이 두 세계의 최고를 제공하는 하이브리드 접근법이 포함됩니다.
Enterprise AI 솔루션은 이미 여기에 있습니다. 신뢰성뿐만 아니라 우선 순위를 부여하는 절차를 수용하려면 현재 모델의 제약을 넘어서면됩니다.
AI의 가능성을 이해할 준비가 된 비즈니스의 경우 앞으로 10 년 동안 혁신을 형성 할 AI 시스템의 투명성, 정확성 및 책임 성이 분명합니다.
우리는 최고의 AI 챗봇을위한 비즈니스를 선보였습니다.
이 기사는 TechraderPro Specialist Insight Channel의 일환으로 기술 산업에서 오늘날 최고의 마음을 사로 잡았습니다. 여기에 발표 된 견해는 저자에 있으며 TechRoderPro 또는 Future PLC에 필수적이지 않습니다. 기여에 관심이 있으시면 여기에서 자세히 알아보십시오.