Z generatywnej sztucznej inteligencji (generative AI) korzysta obecnie ok. 65 proc. firm na świecie1. Podstawową siłą tego rozwiązania jest tworzenie treści bazujących na udostępnianych jej danych, zgromadzonych w olbrzymich bazach. Gen AI ma jednak istotną wadę: może generować skrajnie nieprawidłowe informacje, zaczerpnięte z nieprawdziwych źródeł lub też niepoprawnie interpretować znalezione dane. Zjawisko to nazywa się „halucynowaniem”. Ryzyko jego wystąpienia można jednak zminimalizować dzięki technice RAG – Retrieval Augmented Generation (generowanie wzbogacone o źródła).
Czytaj więcej: Prawda czy fałsz? Halucynacje AI kontra technika RAG