Odkiaľ majú dáta? Problém číslo 1
Žiadna AI – umelá inteligencia by nemohla dobre a správne fungovať, pokiaľ by nebola múdra a natrénovaná. To znamená, že niekto ju musel to, čo vie, naučiť. Problémom pri tvorbe veľkých jazykových modelov (LLM) ako sú ChatGPT-4, ChatGPT-3.5, Claude 3.5, GitHub Copilot, Gemini, či DeepSeek R1 sú masívne náklady na ich trénovanie – jednoducho povedané, je extrémne drahé „naliať im do hlavy“ nové informácie tak, aby vedeli normálne reagovať v rôznych kontextoch.
Poďme si to vysvetliť na príklade zo školy. V normálnej triede máte 40 minút výučby, kde učiteľka vysvetľuje látku a potom 5 minút skúša. Pri trénovaní AI modelov je to úplne naopak – model sa rýchlo „naučí“ základy (5 minút) a potom ho musíme dlho a dôkladne skúšať (40 minút). A opravovať.
Tomuto skúšaniu sa hovorí fine-tuning, kde odborníci na rôzne témy testujú model otázkami a podľa jeho odpovedí mu upravujú „známky“. V praxi to znamená, že upravujú váhy jeho parametrov (môžeme to chápať ako jeho „názory“ alebo „presvedčenia“) v rámci rôznych kontextov. Keď model odpovie správne, tieto váhy sa uložia ako správne. Keď odpovie zle, experti ho opravia a ide sa ďalej. A práve toto je ten kameň úrazu – potrebujete kopu kvalifikovaných ľudí, ktorých musíte dobre zaplatiť, aby tento proces robili poriadne.
A tu prichádza DeepSeek so svojím kontroverzným, aj keď neuveriteľne inovatívnym prístupom. Urobili niečo, čo sa v AI komunite považovalo za absolútne tabu – nechali AI model učiť iný AI model. Je to ako keby ste nechali študenta, ktorý sa sám ešte len učí, aby učil iného študenta. Existujú dôkazy, že na toto využívali ChatGPT, čo vyvoláva kopu etických otázok.
Ale to nie je všetko. DeepSeek sa prezentuje ako „open source“ projekt, čo v preklade znamená, že by mal byť otvorený a transparentný. Realita je však úplne iná – je to skôr čierna diera. Nikto poriadne nevie, kam spoločnosť stojaca z DeepSeek ukladá údaje, čo s nimi robí a kto k nim má prístup. Predstavte si to ako školu, ktorá tvrdí, že má otvorené dvere pre všetkých, ale v skutočnosti nikto netuší, čo sa za tými dverami deje. Hlavne, že je to zadarmo.
Najväčším problémom je, že vytvorili precedens – ukázali, že sa dá vytvoriť „relatívne dobrý“ AI model aj bez tradičného ľudského dohľadu. Je to ako keby ste mali triedu bez učiteľa, kde sa študenti učia len od seba navzájom. Môže to síce fungovať, ale nikto nevie, aké dezinformácie alebo chyby si navzájom odovzdávajú. A čo od takých znalostí očakávať.
To, že je model zadarmo alebo lacný, je síce lákavé, ale za akú cenu? Máme tu AI systém, ktorý bol „vychovaný“ iným AI systémom, bez poriadnej kontroly, bez transparentnosti a nikto presne nevie, čo všetko sa počas tohto procesu mohlo pokaziť. Je to ako experiment, ktorý môže mať ďalekosiahle následky pre celý AI priemysel. DeepSeek otvoril Pandorinu skrinku – ukázal, že sa dajú obísť „pravidlá“ trénovania AI, a zároveň vytvoril potenciálne nebezpečný precedens. Ich prístup je síce technicky brilantný, ale eticky prinajmenšom sporný a nikto nevie predpovedať, aké dlhodobé následky to môže mať pre budúcnosť umelej inteligencie.