기업은 대형 언어 모델 (LLM)과 AI 에이전트의 생산성 가능성을 잠금 해제하기 위해 경쟁하기 때문에 많은 사람들이 친숙한 보안 문제를 깨우고 있습니다. 강력한 새로운 도구가 매우 자유롭고 매우 낮은 보호 및 민감한 데이터 일 때 어떻게됩니까?
코드 초안에서 고객 서비스 자동화 및 비즈니스 통찰력에 이르기까지 LLM 및 자율 AI 에이전트는 새로운 작동 방식을 새로 정의하고 있습니다. 그러나 이러한 도구를 만드는 동일한 기능은 필수적입니다. 즉, 정확도를 보장하지 않으면 인간과 같은 재료를 먹고 분석하고 생산할 수있는 능력을 빠르게 지연시킬 수 있습니다.
AI 시스템이 적절한 통제없이 엔터프라이즈 데이터, API 및 응용 프로그램에 연결되면 우발적 인 누출, 장난스러운 행동 또는 악의적 인 학대의 위험이 있습니다. 이 새로운 AI 용량을 가능하게하기 위해 기존 보안 정책을 몰입해야한다고 가정하는 것은 유혹적인 일입니다.
실제로 반대는 사실입니다. 최근 몇 년 동안 탄력성 사이버 스크 큐리트 “True”Zero Trust 아키텍처 거주자는 이제 LLM, AI 에이전트, AI 워크 플로우 및 연락하는 민감한 데이터를 보호하기 위해 더 필요합니다. 복잡한 AI 상호 작용은 제로 신뢰 신원 기반 승인 및 시행 방법으로 보호 될 수 있습니다.
AI 위험 : 동일한 문제, 합병증 증가, 더 높은 얼룩
LLMS는 데이터 처리량을 가속화합니다. 그러나 사용자와 AI 에이전트 간의 각 상호 작용, 에이전트 및 모델 또는 모델 및 데이터베이스는 새로운 잠재적 위험을 만듭니다. 기밀 계약에 대한 간단한 요약을 위해 LLM을 사용하는 직원을 고려하십시오. 강력한 통제가 없으면 그 브리프 나 계약을 노출시킬 수 있습니다.
또는 모든 자율 에이전트가 작업 속도를 높일 수 있다고 상상해보십시오. 엄격한 실시간 액세스 제어에 의해 안내되지 않으면 동일한 에이전트가 목적보다 더 많은 데이터를 점화 시키거나 공격자가 민감한 정보를 장려하기 위해 흡수 될 수 있습니다. 요컨대, LLM은 기본 보호 문제를 바꾸지 않습니다. 그들은 단순히 노출 경로와 규모를 곱합니다.
이 곱셈 효과는 AI 시스템이 기계의 속도와 스케일에서 작동하기 때문에 특히 관련이 있습니다. AI 에이전트에 의해 흡수 될 때 전통적인 Tait 시스템에 소수의 레코드를 게시 할 수있는 단일 등록되지 않은 액세스는 수천 또는 수백만의 민감한 데이터 포인트와 접촉 할 수 있습니다.
또한 AI 에이전트는 동사를 함께 체인하거나 API를 호출하거나 여러 시스템에서 워크 플로우를 조정할 수 있습니다. 순환 보호 크기를 가리고 관찰 및 추가 작업을 복잡하게하는 활동.
이 환경에서 회사는 더 이상 고정 방어에 의존 할 수 없습니다. 대신, 최소한의 권한 액세스를 가능하게하기 위해 각 사용자, 에이전트, LLM 및 디지털 조직의 신원에 따라 보호는 역동적이고 각 사용에 적합해야합니다.
세상에서 제로 믿음을 아끼는 데 필요한 AI 세계
제로 트러스트는 단순하지만 강력한 아이디어에 달려 있습니다. 신뢰하지 말고 항상 확인하십시오. 각 사용자, 장치, 응용 프로그램 또는 AI 에이전트는 이동하려고 할 때마다 자신이 누구인지, 무엇을 해야하는지 증명해야합니다.
이 모델은 현대 AI 환경에서 자연스럽게 매핑됩니다. 영리한 프롬프트를 사용하여 우회 할 수있는 필터 프롬프트 또는 복원 된 데이터 또는 출력 만 필터링 – 제로 트러스트 스택 효과보다 더 깊은 보호.
모든 상황에서 어떤 에이전트와 모델을 관리하는지 및 데이터에 얼마나 오래 액세스 할 수 있는지 관리합니다. 각 상호 작용의 중심에서 각 상호 작용의 정체성과 맥락으로 생각되며, 모든 사람의 요청 데이터 또는 AI 프로세스 배경에서 자율적으로 투여됩니다.
사고의 예는 오염 된 입력이 LLM을 유도하여 민감한 데이터를 공개하거나 무단 작업을 수행하는 즉각적인 주사 공격입니다. 가장 진보 된 필터링 시스템조차도 이러한 탈옥 기술에 취약한 것으로 입증되었습니다.
그러나 그 자리에 대한 믿음이 전혀 없으면 AI 프로세스 자체에 영구적 인 기회가 없기 때문에이 국가 공격의 상실은 피할 수 있습니다. 이 시스템은 AI 요소에 의한 필터링에 대한 신속한 해석 또는 필터링을 확인하여 데이터 노출에서 화난 프롬프트를 증가시킬 수 없습니다.
LLM 워크 플로에 제로 트러스트를 적용하는 방법
LLM 및 발전기 AI를 보호한다고해서 휠을 다시 발명하는 것은 아닙니다. 이것은 새로운 용도로 입증 된 입증 된 신탁 정책을 확장하는 것을 의미합니다.
– II 에이전트 검증 된 신원에 묶음 : AI 프로세스를 인간 사용자처럼 취급하십시오. 각 에이전트 또는 모델에는 자체 정체성, 역할 및 자격이 필요합니다.
-섹스 요청 된 데이터 중 장치 또는 감도와 같은 실시간 요인에 따라 AI 에이전트에 대한 액세스를 제한합니다.
– 프로토콜 레벨에 컨트롤을 적용합니다. 전체 프롬프트, 출력 또는 복구 레벨 필터링에 의존하지 마십시오. 프롬프트가 아무리 정교하더라도 무단 액세스를 차단하기 위해 시스템 및 네트워크 계층에 신뢰를 제로화하십시오.
– AI 상호 작용의 체인에 대한 믿음을 제로로 유지하십시오. 복잡한 상호 작용 분야의 경우에도 LLM을 사용하여 데이터베이스에 액세스하는 에이전트를 사용하는 에이전트 사용자와 같은 신원 및 자격은 상호 작용 시퀀스의 각 단계에서 식별 및 적용되어야합니다.
– 지속적으로 모니터링하고 모니터링합니다. 에이전트 또는 모델을 차지하는 각 활동의 가시성을 유지하십시오. 온도 로그 및 스마트 세션은 기록 동의 및 책임을 보장합니다.
AI에 제로 신뢰를 적용하면 대행사는 오늘날 직원과 마찬가지로 적절한 신원 관리를 해결하기 위해 AI 모델과 에이전트가 필요합니다. 이렇게하면 일관된 정책을 위해 AI 리소스 및 디지털 리소스와 함께 IAM (ID 및 액세스 관리)의 사용이 줄어 듭니다.
에이전시 AI 프로젝트는 AI 시스템에 제로 트러스트를 적용함으로써 데이터를 유출 할 수 없거나 그들이 할 수 없다는 것을 알면서 도적이되지 않을 것입니다. 이 보증은 기술적 이점 이상의 것이며 비즈니스 능력입니다. 데이터 보호에 대한 확신을 가지고 AI를 배치 할 수있는 회사는 AI 사용에 관한 법률이 빠르게 개발되는 환경에서 빠르게 혁신하고 더 많은 고객을 유치하며 규제 동의를 유지할 것입니다.
글로벌 규제 당국은 AI 행정부가 행정의 남용에 대해 입증되어야하며 제로 트러스트는 혁신을 억제하지 않고 동의하는 명확한 방법을 제공한다고 지적했다. AI 컨버터는 이익을 약속하지만 안전하게 사용할 수있는 사람들에게만 이익을 약속합니다. 제로 트러스트 (Zero Trust)는 입증 된 보호 모델입니다.
우리는 최고의 바이러스 백신 소프트웨어를 나열합니다 : 전문가 순위 및 리뷰그만큼
이 기사는 TechraderPro Specialist Insight Channel의 일환으로 기술 산업에서 오늘날 최고의 마음을 사로 잡았습니다. 여기에 발표 된 견해는 저자에 있으며 TechRoderPro 또는 Future PLC에 필수적이지 않습니다. 기여에 관심이 있으시면 여기에서 자세히 알아보십시오.









