JDownloader Account Premium WorldBytez Filestore Easybytez Datafile Rapidgator Uploaded Easybytez Spotify IPTV DAZN SKY

Se usi ChatGPT gli hacker ti possono spiare nonostante la crittografia

« Older   Newer »
  Share  
keysersoze86
view post Posted on 14/3/2024, 21:50 by: keysersoze86     +1   +1   -1
Avatar

PowerTech

Group:
Admin
Posts:
15,624
Punti Reputazione JDP!:
+8,389,615

Status:


Se usi ChatGPT gli hacker ti possono spiare nonostante la crittografia



Un nuovo attacco informatico sta mettendo a rischio la privacy delle chat private gestite dagli assistenti AI, anche se queste sono crittografate. Gli assistenti AI, disponibili da poco più di un anno, stanno rapidamente diventando una parte integrante delle nostre vite, offrendo risposte e assistenza su argomenti sensibili come la gravidanza, i problemi legali e persino la salute mentale.

Tuttavia, alcuni ricercatori hanno scoperto un grave problema di sicurezza che compromette la riservatezza di queste conversazioni.

La tecnica utilizzata dagli hacker sfrutta un canale secondario presente nella maggior parte degli assistenti AI, con l'eccezione di Google Gemini. Attraverso l'utilizzo di modelli linguistici avanzati, gli aggressori possono decifrare le risposte degli assistenti AI con una precisione sorprendente.

Questo significa che anche se le conversazioni sono crittografate, un hacker che si trova in una posizione di intercettazione passiva può dedurre il contenuto delle risposte con una precisione notevole.

Yisroel Mirsky, capo del Offensive AI Research Lab presso la Ben-Gurion University in Israele, ha avvertito che attualmente chiunque può leggere le chat private inviate da servizi come ChatGPT e altri, compromettendo gravemente la privacy degli utenti.



Anche se OpenAI crittografa il traffico per prevenire tali attacchi, la ricerca ha dimostrato che il modo in cui viene utilizzata la crittografia è difettoso, esponendo il contenuto delle conversazioni.

Questo problema riguarda non solo OpenAI, ma anche altri grandi chatbot, come Microsoft Copilot. Gli hacker possono dedurre il contenuto delle risposte crittografate con un alto grado di accuratezza, compromettendo la sicurezza delle conversazioni su argomenti sensibili.

L'attacco sfrutta un canale secondario di sequenza di token, che si trova nei token utilizzati dagli assistenti AI per trasmettere le risposte in tempo reale.

Sebbene la consegna dei token sia crittografata, la trasmissione in tempo reale, token per token, espone questo canale secondario, permettendo agli hacker di accedere alle conversazioni private degli utenti.

Questa scoperta solleva gravi preoccupazioni per la sicurezza e la privacy degli utenti degli assistenti AI. È urgente che vengano adottate misure per risolvere questa vulnerabilità e proteggere le conversazioni private da occhi indiscreti.

Fonte: tomshw

 
Top
0 replies since 14/3/2024, 21:50   9 views
  Share