MENU

Fun & Interesting

RAG w LLM: Dlaczego popularne rozwiązania to droga donikąd?

DataWorkshop 31,968 6 months ago
Video Not Working? Fix It Now

RAG w LLM: Dlaczego popularne rozwiązania to droga donikąd? Tradycyjne podejście do RAG (Retrieval-Augmented Generation) w dużych modelach językowych (LLM), choć obiecujące w teorii, często zawodzi w praktyce. Sztuczne dzielenie danych na fragmenty (chunki) prowadzi do utraty kontekstu i generowania niespójnych, a nawet błędnych odpowiedzi. Kurs praktyczny LLM! Zapisz się teraz na listę chętnych i zyskaj realne umiejętności pod moim okiem. Gwarantuję: zmienisz swoje podejście do LLM! Zapisz się teraz: 👉 https://bit.ly/49VJXf5 Partnerem podcastu jest DataWorkshop. 🔔 Subskrybuj i włącz powiadomienia - Twoja droga do praktycznego ML zaczyna się od jednego kliknięcia: https://www.youtube.com/@DataWorkshop?sub_confirmation=1 👍 Zostaw like, bo więcej lajków = więcej praktycznych treści dla Ciebie! 💬 Co o tym myślisz? Zostaw komentarz! Masz pytanie? Zadaj je - chętnie odpowiem. 🤝 Poznajmy się lepiej! Zaproś mnie do swojej sieci na LinkedIn: https://www.linkedin.com/in/vladimiralekseichenko/ 🔊 Zainicjuj rozmowę o ML w firmie, polecając ten podcast. Zainspiruj zespół do wdrażania ML! Przyczyny: -- Mechaniczne dzielenie tekstu: Tradycyjne metody dzielą dane na chunki na podstawie liczby znaków, ignorując semantykę i kontekst. To prowadzi do utraty sensu i generowania chaotycznych odpowiedzi. - Nadmierne poleganie na embeddingu: Choć embedding jest potężnym narzędziem, nie jest rozwiązaniem idealnym. Nadmierne poleganie na nim prowadzi do wybierania fragmentów tekstu podobnych semantycznie, ale niekoniecznie istotnych dla danego zapytania. - Zaniedbanie jakości danych i struktury: Skupienie się na zaawansowanych algorytmach i bazach wektorowych odciąga uwagę od kluczowej kwestii - jakości i struktury danych. Skutki: - Niska dokładność i spójność odpowiedzi: Modele LLM generują różne odpowiedzi na to samo pytanie, a użytkownicy nie mają pewności co do ich poprawności. - Brak transparentności i audytowalności: Trudno jest prześledzić proces generowania odpowiedzi i zweryfikować, skąd pochodzą konkretne informacje. - Wysokie koszty implementacji i utrzymania: Zastosowanie złożonych architektur i modeli zwiększa koszty, a problemy z jakością danych prowadzą do ciągłych poprawek i reindeksowania. Chcesz więcej? Zapisz się listę chętnych kursu praktyczny LLM. Naucz się krok po kroku, jak budować i wdrażać rozwiązania, które robią różnicę: 👉 https://bit.ly/49Uz51d 🕒 Kluczowe momenty: 0:00 Wprowadzenie: RAG w LLM-ach 3:48 Generowanie trafnych odpowiedzi przez LLM-y 13:43 Odpowiedzialność za dane wejściowe 20:44 Problemy z mechanicznym podziałem tekstu 26:20 Osadzenie wektorowe i podobieństwo semantyczne 37:51 Alternatywne podejście do RAG 45:30 Ostrzeżenie przed nadmiernym komplikowaniem AI 53:00 Podsumowanie i alternatywne podejście 🧠 Dowiesz się: - Dlaczego klasyczne podejście do RAG często zawodzi - Jak LLM-y interpretują dostarczony kontekst - Jakie są pułapki przy implementacji RAG - Co to jest "mapa wiedzy" i jak może zrewolucjonizować AI Należy odejść od mechanicznego podejścia do RAG i skupić się na: - Głębokim zrozumieniu problemu biznesowego: Zdefiniowanie, co chcemy osiągnąć i jakie informacje są potrzebne do rozwiązania danego problemu. - Manualnym zaprojektowaniu struktury danych: Ustalenie, w jaki sposób przechowywać dane, aby zachować ich sens i kontekst. - Użyciu embeddingu jako narzędzia pomocniczego: Embedding powinien wspierać, a nie zastępować klasyczne metody wyszukiwania. - Skoncentrowaniu się na jakości i aktualności danych: Zapewnienie, że dane są wiarygodne, aktualne i odpowiednio zabezpieczone. Korzyści: - Zwiększenie dokładności i spójności odpowiedzi. - Poprawa transparentności i audytowalności. - Obniżenie kosztów implementacji i utrzymania. - Spełnienie wymogów prawnych (GDPR, EU AI Act). Zamiast ślepo podążać za modnymi rozwiązaniami, należy skupić się na fundamentach - jakości danych, strukturze i zrozumieniu problemu biznesowego. Tylko takie podejście pozwoli wykorzystać pełen potencjał RAG i zbudować systemy oparte na LLM, które będą nie tylko efektowne, ale przede wszystkim efektywne. Jeśli interesujesz się przyszłością AI i jej praktycznym zastosowaniem w biznesie, ten odcinek jest obowiązkowy! 🔗 Linki: https://biznesmysli.pl/rag-w-llm-dlaczego-popularne-rozwiazania-to-droga-donikad/ 🎧 Słuchaj BM wygodnie na Spotify, Apple Podcasts lub Google Podcasts: 📌 https://open.spotify.com/show/3ZUaHommHHZU6b4WJiyV2I 📌 https://podcasts.apple.com/us/podcast/biznes-myśli/id1215290277 📌 https://music.youtube.com/playlist?list=PLWOCRT27Z94XZzwcRI9-ExMyUXeBrF3W_ Przydatne publikacji: - https://arxiv.org/pdf/2005.11401 - https://arxiv.org/pdf/2407.01219 - https://arxiv.org/pdf/2406.04369 - https://arxiv.org/pdf/2305.14283 - https://arxiv.org/pdf/2007.01282 Tagi: #ai #machinelearning #datascience #nlp #rag #llm #search #bestpractice #biznesmysli

Comment