А, ако ползваш ИИ модел на компания, който не е open-source и заради това не знаеш, с какви данни и параметри е трениран какви, тоест не можеш да определиш точно крайния резултат, който си/би получил (при ИИ-тата това е невъзможно както на практика, така и на теория), как ще определиш, какво първо е бъг при езиковия модел, как ще реагира на определен промпт (на всеки промпт отговора е различен, дори да подаваш абсолютно същия промпт), и съответно, при невъзможност за определяне на крайния резултат, чия е грешката?
При езиковия модел или при подадения промпт.
Ако промпта е логически издържан и безопасен, но ако знаеш, че езиковия модел е на практика черна кутия в която каквото и да хвърлиш, не знаеш точно какво ще излезе, как би определил чия е вината?
Експерта няма да помогне в случая, а само ще обърка съдията или съдиите (имаме ли журита у нас?).
При програмните езици има пълен детерминизъм - ако има бъг или е известен, или може да се открие в последствие при експертизата. Ако програмиста, съответния администратор е допуснал грешка в действията и командите, които е подавал, това също можеш да се определи ясно.
При LLM нямаш яснота. Дори промпта да е логически напълно зловреден, езиковия модел може да сътвори нещо прекрасно.
Малко вероятно е, но може да се случи.
Онче-бонче е.
Дори моделът да е open-source, няма как да си сигурен напълно в крайния резултат, дори да доведеш в залата хората, които да го сътворили за експерти.
It is possible (though not guaranteed) for a completely malicious prompt to result in something good (helpful, harmless, or even beneficial) when fed to an LLM.
This happens mainly because of the probabilistic and non-deterministic nature of LLMs.