Katolícky kňaz
Kybernetická bezpečnosť
Bezpečnosť umelej inteligencie
Etika umelej inteligencie
GNU/Linux
Systémový administrátor
Sieťový administrátor
Ochrana dát a osobných údajov
Slobodný softvér
Informačná spoločnosť
Morálna teológia
Viaceré modely generatívnych systémov AI (genAI) - predovšetkým jazykové (LLM) - sú vydané pod niektorou z licencií open-source, čo umožňuje v kontexte danej licencie pomerne slobodné nakladanie s modelom a jeho dátami.
Dôsledkom open-source prístupu je možnosť prevádzkovať modely genAI lokálne - t.j. na svojom vlastnom počítači a nezávisle od pripojenia k internetu a k systémom výrobcu.
Primárnou výhodou je nielen schopnosť prevádzkovať systém úplne lokálne bez akéhokoľvek pripojenia na internet, ale predovšetkým bezpečnosť a ochrana osobných údajov a citlivých dát, nakoľko tieto nie sú zdielané s výrobcom, resp. prevádzkovateľom systému AI (určité bezpečnostné riziká však stále môžu existovať – rozoberáme ich v 2. kapitole druhého, rozšíreného vydania knihy Umelá inteligencia – dobrý sluha a zlý pán).
Ako rizikový príklad, prečo môže byť vhodné prevádzkovať model genAI lokálne, môžeme uviesť špičkový čínsky model DeepSeek-R1, ktorý bol uvoľnený v januári 2025 a vyrovnal sa najlepším vtedajším západným modelom. Jeho prevádzka cez webové služby a oficiálne aplikácie bola však natoľko riziková, že i Národný bezpečnostný úrad vydal oficiálne varovanie.
NBÚ upozorňuje, že DeepSeek zbiera od používateľov dáta v oveľa väčšom rozsahu ako konkurencia. Dáta zahŕňajú dokonca presné časovanie stlačení jednotlivých klávesov, zadané pokyny (prompty), heslá, vkladané obrázky, audio súbory, dokumenty, ale aj IP adresu počítača, z ktorého je služba DeepSeek využívaná, systémový jazyk a podobne. Informácie sú následne ukladané na servery v Číne.
Výhody môžeme vo všeobecnosti zhrnúť nasledovne:
Naviac - ak berieme do úvahy konkrétny, napr. nižšie uvedený nástroj ollama - v rámci lokálnej prevádzky je možné využívať viaceré verzie rovnakých modelov, či už na základe hardvérových možností a/alebo konkrétnych modifikácií a konfigurácií (využíva sa primárne tzv. technika quantization a formát GGUF).
Nevýhodou je nedostupnosť niektorých možností a pokročilých funkcií, ktoré môžu byť viazané na prístup k internetu, externým nástrojom, veľkému výkonu alebo cloudu (napr. aktuálne informácie z vyhľadávačov, resp. vedeckých databáz, ktoré by pri generovaní správnej odpovede systém potreboval poznať,...).
Pri veľmi intenzívnom využívaní tiež môže byť relevantná zvýšená energetická spotreba lokálnej výpočtovej techniky.
Kvalitnú podporu pre open-source systémy AI ponúka projekt ollama, ktorý zabezpečuje beh veľkých jazykových a vizuálnych modelov, ktoré boli vydané ako tzv. open, resp. pod niektorou z licencií open-source (DeepSeek, Llama, Mistral, Phi-4, Gemma a niekoľko desiatok ďalších).
Ollama ponúka flexibilitu pri vytváraní prispôsobených jazykových modelov a spúšťaní viacerých vopred pripravených predtrénovaných modelov. Navyše je úplne open-source, čo podporuje transparentnosť a zapojenie komunity.
Nástroj ollama je k dospozícii pre rôzne platformy (MS Windows, MacOS, GNU/Linux, docker,...) a s možnosťou integrácie s ďalšími nástrojmi (od softvérových knižníc a databáz až po Apple Vision Pro).
Príklad lokálneho využívania modelu DeepSeek-R1:
Ollama neobsahuje grafické rozhranie (s modelmi je možné pracovať pomocou príkazového riadku Ollama priamo z terminálu), je ho však možné kombinovať s niektorou z existujúcich samostatných grafických nadstavieb alebo rozšírení.
Príklad jednoduchej lokálnej inštalácie na počítačoch s GNU/Linux
Dobrou voľbou je grafické rozhranie Alpaca, ktoré je dostupné i prostredníctvo Flathubu, pričom integruje i samotný systém ollama (od verzie 5.1.0 vo forme pluginu), takže netreba nič ďalšie inštalovať a po spustení Alpaca stačí len v časti Manage Models (Ctrl+M) spravovať modely AI, ktoré chceme lokálne využívať.
Ďalšie možnosti pre grafickú integráciu
Grafické rozhrania, prístupy k ollama prostredníctvom webových stránok a softvérové knižnice pre integráciu s inými nástrojmi a systémami realizujú viaceré samostatné open-source projekty. Ich zoznam je dostupný na stránke GitHub:Ollama v časti Reedme/Community Integrations.
Ďalšou z možností lokálnej prevádzky generatívnych modelov, ktorú môžeme odporúčať, je LM Studio.
Poskytuje širšiu škálu funkcií, ako je vyhľadávanie, sťahovanie a prevádzku lokálnych LLM, pričom disponuje integrovanými chatovacími rozhraniami a kompatibilitou s lokálnymi servermi typu OpenAI.
LM Studio je vo všeobecnosti považované za užívateľsky prívetivejšie ako Ollama a ponúka aj väčšiu škálu modelov pochádzajúcich z miest ako Hugging Face. (Pozor však na bezpečnostné riziká, ktoré sa môžu v súvislosti s modelmi na platformách ako Hugging Face vyskytnúť. Rozoberáme ich v 2. kapitole druhého, rozšíreného vydania knihy Umelá inteligencia – dobrý sluha a zlý pán).
V zásade Ollama i LM Studio sú predmetom intenzívneho vývoja a pridávania nových funkcií - záleží len na používateľovi, ktorý z nich bude využívať.
Výhody Ollama:
Výhody LM Studio:
Záujemcov o hlbšie porovnanie a ďalšie zaujímavé informácie môžeme odkázať na viacero príspevkov:
Obsah tohto príspevku je súčasťou pripravovaného Druhého, rozšíreného vydania knihy Umelá inteligencia – dobrý sluha a zlý pán?