Vissza a blogra Biztonság

LLM biztonság és adatvédelem — hogyan védjük az ügyféladatokat

Hogyan garantálja az AI Squad az érzékeny adatok védelmét? Következtetés-alapú LLM architektúra, munkamenetek elszigetelése és zéró megőrzés.

Sabján László
2025. május 20. 4 perc olvasás

Amikor LLM-ek biztonságáról beszélünk, a két legfontosabb kérdés a megbízhatóság és az adatvédelem. Ez a cikk mindkettőt részletesen tárgyalja: hogyan működnek a nagy nyelvi modellek belül, miért nem képesek „kiszivárogtatni" az adatokat, és milyen architektúrát alkalmazunk az AI Squad-nál az ügyféladatok védelme érdekében.

Hallucináció: miért „hazudnak" az LLM-ek?

Az LLM-ek időnként téves információkat közölnek — hihető, de kitalált részleteket adnak elő. Ez nem szándékos hiba és nem programozási bug. A nagy nyelvi modellek mintakövető rendszerek, amelyek hatalmas mennyiségű adat alapján próbálják megjósolni a legvalószínűbb következő szövegrészletet.

Ha a modell nem rendelkezik pontos információval, nem mondja azt, hogy „nem tudom" — ehelyett a legvalószínűbb szövegmintázat alapján generál választ. Ez a hallucináció. A jelenség kezelésének kulcsa: a modell válaszainak minden kritikus ponton való ellenőrzése, és a felhasználó számára való egyértelmű kommunikáció arról, hogy AI-generált tartalomról van szó.

Paraméterek milliárdjai — de nem adatbázis

A nagy nyelvi modelleket paraméterek milliárdjai alkotják. Fontos megérteni: ezek a paraméterek nem adatbázis. Nem tárolnak konkrét adatokat — statisztikai kapcsolatokat kódolnak. Az a kérdés, hogy „ki a 482-es ügyfélszámon regisztrált személy", nem válaszolható meg a modell paraméterei alapján, mert ilyen konkrét adat nincs bennük.

Gyakorlatilag lehetetlen, hogy egy LLM közvetlenül felfedje az érzékeny adatokat, amelyeken tanították. A bemeneti adatokat bonyolult matematikai műveleteken keresztül alakítják át: tokenizálás, embedding, többrétegű transzformáció. Az LLM nem „hívja elő" a megjegyzett tartalmat — statisztikai mintázat alapján generál.

Valós idejű adatkezelés: hogyan dolgozza fel az LLM a beszélgetést?

Amikor egy ügyfél beszél az AI agenttel, a következő lépések történnek:

  1. Szövegátalakítás — az ügyfél beszédét a Speech-to-Text rendszer szöveggé alakítja, majd a szöveget tokenekre darabolja
  2. Embedding — a tokeneket numerikus reprezentációvá alakítja a rendszer, amely betáplálásra kerül a modellbe
  3. Feldolgozás — a modell bonyolult matematikai műveleteket hajt végre ideiglenes számítási térben, és generálja a választ
  4. Iteráció — a folyamat addig ismétlődik, amíg a végleges válasz meg nem születik

A kritikus szó: ideiglenes. Minden beszélgetés a saját, elszigetelt számítási terében zajlik. Az adatok nem keverednek más beszélgetések adataival.

Elszigetelés: minden beszélgetés önálló sziget

Az AI Squad rendszereiben minden ügyfélinterakció teljes mértékben elszigetelt. Ez azt jelenti:

  • Az „A" ügyfél beszélgetéséből semmilyen adat nem juthat el „B" ügyfél kontextusába
  • A beszélgetés befejezése után az ideiglenes számítási tér törlődik — nincs tartós tárolás a modellen belül
  • A következő beszélgetés változatlan, tiszta modellel indul

Két üzemmód: kiképzés vs. következtetés

Az LLM-ek két, egymástól élesen elkülönülő üzemmódban működnek:

Kiképzés (Training)

A modell tudása rögzül a paraméterekben. Ez egy zárt folyamat, amely teljesen elkülönül az ügyfélinterakcióktól. Az éles rendszerben futó modell nem tanul az ügyfelektől — a tudásbázisa rögzített.

Következtetés (Inference)

Ez az üzemmód, amelyben az ügyfélinterakciók zajlanak. A modell tudásbázisa rögzített, nem frissül. Az ügyfél adatai csak az adott beszélgetés ideiglenes kontextusában léteznek — soha nem kerülnek a hosszú távú tudásbázisba.

Teljes elszigetelés az AI Squad rendszereiben

Összefoglalva az AI Squad megközelítését:

  • Érzékeny adatok csak az adott beszélgetés ideiglenes kontextusában léteznek — nincs tartós tárolás a modellben
  • Beszélgetés végén minden nyoma eltűnik — a számítási tér felszabadul, az adatok törlődnek
  • A következő beszélgetés változatlan modellel indul — nincs „áthallás" beszélgetések között
  • A modell nem tanul az ügyfélinterakciókból — a kiképzés és a következtetés teljesen elkülönül

Ez az architektúra biztosítja, hogy az ügyféladatok akkor is védve vannak, ha a modell maga hozzáfér érzékeny információkhoz a beszélgetés során. A védelem nem a modell „jóindulatára" épül, hanem a rendszer struktúrájára.

A prompt injekció és jailbreaking elleni védelmi megoldásainkat részletesen tárgyaljuk a kapcsolódó cikkünkben. Az adatvédelmi gyakorlatunk teljes jogi keretrendszerét az adatvédelmi tájékoztatónkban ismertetjük.

Ha kérdésed van az AI rendszereink biztonságáról: vedd fel velünk a kapcsolatot.

Sabján László

Alapító, CEO — AI Squad

LinkedIn profil →

Érdekel a téma?

Beszéljük meg, hogyan alkalmazható a te vállalkozásodban.

Foglalj egyeztetést