Dil Seçin

Turkish

Down Icon

Ülke Seçin

America

Down Icon

LangSmith'in Prompt Hub'ındaki AgentSmith Kusuru Kullanıcı API Anahtarlarını ve Verilerini Açığa Çıkardı

LangSmith'in Prompt Hub'ındaki AgentSmith Kusuru Kullanıcı API Anahtarlarını ve Verilerini Açığa Çıkardı

Noma Security'deki siber güvenlik araştırmacıları, LangChain'in LangSmith platformunda, özellikle halka açık Prompt Hub'ını etkileyen kritik bir güvenlik açığının ayrıntılarını açıkladı. CVSS puanı 8,8 (yüksek bir ciddiyet derecesi anlamına gelir) olan AgentSmith olarak adlandırılan bu kritik kusur, kötü niyetli AI ajanlarının değerli OpenAI API anahtarları da dahil olmak üzere hassas kullanıcı verilerini çalmasına ve hatta büyük dil modellerinden ( LLM'ler ) gelen yanıtları manipüle etmesine olanak tanıyabilir.

LangSmith, Microsoft ve DHL gibi büyük şirketler tarafından AI ajanlarını yönetmek ve bunlar üzerinde iş birliği yapmak için kullanılan popüler bir LangChain platformudur. Temel özelliği olan Prompt Hub , çoğu ajan olarak işlev gören önceden yapılandırılmış AI istemlerini paylaşmak/yeniden kullanmak için genel bir kütüphanedir.

AgentSmith güvenlik açığı, bu genel aracıların zararlı proxy yapılandırmalarıyla nasıl kurulabileceğini istismar etti. Bir proxy sunucusu, ağ istekleri için bir aracı görevi görür. Bu durumda, bir saldırgan gizli kötü amaçlı bir proxy ile bir AI aracısı oluşturabilir.

Şüphelenmeyen bir kullanıcı bu aracı Prompt Hub'dan alıp çalıştırdığında, OpenAI API anahtarları gibi özel veriler, yüklenen dosyalar ve hatta ses girişleri de dahil olmak üzere tüm iletişimleri gizlice saldırganın sunucusu üzerinden gönderilecektir.

Noma Security'nin Hackread.com ile paylaştığı araştırmaya göre, bu Aracı Adam (MITM) müdahalesi ciddi sonuçlara yol açabilir. Saldırganlar, bir kurbanın OpenAI hesabına yetkisiz erişim elde edebilir, hassas veri kümelerini indirebilir, istemlerden gizli bilgileri çıkarabilir veya hatta API kullanım kotasını tüketerek mali kayıplara neden olabilir.

Daha gelişmiş saldırılarda, kötü amaçlı proxy, LLM yanıtlarını değiştirebilir ve potansiyel olarak dolandırıcılığa veya yanlış otomatik kararlara yol açabilir.

Noma Security, 29 Ekim 2024'te bu güvenlik açığını sorumlu bir şekilde LangChain'e bildirdi. LangChain sorunu doğruladı ve bu kamuya açıklamadan önce, 6 Kasım 2024'te hızla bir düzeltme yayınladı.

Şirket bununla birlikte, özel proxy ayarlarıyla ajan klonlamaya çalışan kullanıcılar için ajan açıklama sayfalarında yeni güvenlik önlemleri, uyarı mesajları ve kalıcı bir başlık da tanıttı.

Hem Noma Security hem de LangChain etkin bir istismara dair hiçbir kanıt bulamadı ve yalnızca kötü amaçlı bir ajanla doğrudan etkileşime giren kullanıcılar risk altındaydı. LangChain ayrıca güvenlik açığının Prompt Hub'ın genel paylaşım özelliğiyle sınırlı olduğunu ve çekirdek platformlarını, özel ajanlarını veya daha geniş altyapılarını etkilemediğini açıkladı.

Olay, kuruluşların AI güvenlik uygulamalarını geliştirmeleri gerektiğini vurguluyor. Araştırmacılar, kuruluşların kökenlerini ve bileşenlerini izlemek için bir AI Malzeme Listesi ( AI BOM) kullanarak tüm AI ajanlarının merkezi bir envanterini tutmaları gerektiğini öne sürüyor. Tüm AI ajanları için çalışma zamanı korumaları ve güçlü güvenlik yönetimi uygulamak da gelişen tehditlere karşı koruma sağlamak için çok önemlidir.

HackRead

HackRead

Benzer Haberler

Tüm Haberler
Animated ArrowAnimated ArrowAnimated Arrow