We can't find the internet
Attempting to reconnect
Something went wrong!
Attempting to reconnect
Access AI content by logging in
Sztuczna inteligencja zaskakuje błyskotliwymi odpowiedziami, ale czasem również... bezczelnym zmyślaniem. Dlaczego modele językowe potrafią z pełnym przekonaniem generować nieprawdziwe informacje? Co sprawia, że brzmią wiarygodnie, mimo że wcale takie nie są?
Jarosław Kuźniar przygląda się zjawisku halucynacji AI – błędów, które nie są skutkiem awarii, ale naturalnym efektem działania algorytmów. W tym odcinku Technologicznie poznasz kulisy pracy z modelami językowymi, które mogą być genialnymi asystentami, ale też niebezpiecznymi źródłami dezinformacji.
Dlaczego warto wiedzieć, kiedy AI zmyśla? Co robią badacze, by ograniczyć ten problem? I dlaczego ostateczna odpowiedzialność za prawdę nadal spoczywa na człowieku?
Z tego odcinka dowiesz się:
- Czym są halucynacje AI i dlaczego się pojawiają?
- Jakie cztery główne przyczyny odpowiadają za zmyślenia modeli językowych?
- Dlaczego sztuczna inteligencja brzmi pewnie, nawet gdy mija się z prawdą?
- Jakie są metody ograniczania halucynacji, takie jak RAG i RLHF?
- Dlaczego to człowiek nadal musi weryfikować prawdziwość informacji generowanych przez AI?
Masz pytanie do ekspertów? Możesz je zadać tutaj: https://tally.so/r/npJBAV
W aplikacji Voice House Club m.in.:
✔️ Wszystkie formaty w jednym miejscu.
✔️ Możesz przeczytać lub posłuchać.
✔️ Transkrypcje odcinków serii In Brief z dodatkowymi materiałami wideo.
Słuchaj w Voice House Club: https://bit.ly/Dolacz_do_VHC
📩 Chcesz nagrać z nami podcast lub nawiązać współpracę? Napisz: [email protected]