Министерството на електронното управление (МЕУ) е назначено за основно ведомство отговорно за прилагането на законодателния Акт за изкуствения интелект (AI Act) в България. В момента то е в процес на изграждане на националната рамка, но все още не са взети окончателни решения относно координационния модел и надзора над високорисковите системи. Тези детайли са уточнени в отговорите на МЕУ до БТА, касаещи Закона за достъп до обществена информация (ЗДОИ), свързани с прилагането на AI Act у нас.
Съветът по европейски въпроси е поверил на МЕУ водещата роля в прилагането на регламента, но до момента усилията са основно насочени към разработки на предложения за решения на Министерския съвет, консултации с останалите администрации и участие в европейските координационни формати.
Определени са органи за основните права, но регулаторните функции остават неразрешени
МЕУ отразява като основно изпълнено задължение приемането на Решение на Министерския съвет № 398 от 18 юни 2025 г., с което са назначени седем компетентни органа за защита на основните права, включително правото на недискриминация. Те включват омбудсмана, Централната избирателна комисия (ЦИК), Комисията за защита от дискриминация (КЗД), Комисията за защита на личните данни (КЗЛД), Комисията за защита на потребителите (КЗП), Държавната агенция за закрила на детето (ДАЗД) и Главната инспекция по труда. Според министерството, това означава, че България е изпълнила едно от основните изисквания на регламента, което е свързано с разпределение на институционалните компетенции относно влиянието на системите с ИИ върху права, свързани с недискриминация, лични данни, потребители, права на детето и трудови права.
В същото време, от отговорите става ясно, че тази стъпка обхваща ограничена част от прилагането на AI Act и не решава проблемите, свързани с надзора над високорисковите ИИ системи, санкционния режим и реалното приложение на регламента на национално равнище.
Нотифициращият орган и пазарният надзор – „подготвени проекти“, но без окончателни решения
МЕУ информира, че е разработило проект на решение на Министерския съвет за назначаване на национален нотифициращ орган по AI Act, като за тази функция се предлага Изпълнителна агенция „Българска служба по акредитация“. Все още обаче проектът не е внесен за обсъждане и одобрение от Министерския съвет.
По подобен начин върви и подготовката на надзора над високорисковите ИИ системи на пазара. Министерството посочва, че е провело консултации и е подготвило проект на решение, но процедурата по междуведомствено съгласуване още не е започнала. В момента не се знае кои органи ще осъществяват реалния надзор и как ще бъдат разпределени правомощията между тях.
Така един от основополагаещите елементи на рамката остава в състояние на неопределеност.
Междуведомствена работна група има, нормативната рамка – най-рано през 2026 г.
Отговорите на МЕУ до БТА показват, че ключовата междуведомствена работна група, която трябва да разработи националната нормативна уредба за AI Act, все още не е активна. Очаква се заповед на министъра на електронното управление за нейното сформиране да бъде издадена до края на 2025 г.
Срокът за разработване на националната нормативна рамка е март 2026 г. Това означава, че през начален период на прилагане на регламента България ще функционира без изцяло завършена национална уредба, включително относно санкциите, координацията между институциите и спецификите за публичния сектор.
Няма решение за национален координационен център по ИИ
На въпроса за създаването на единен национален координационен център за изкуствен интелект, подобен на AI Office на ниво Европейски съюз, МЕУ отговаря, че в момента такова решение не е взето. Предложението за специфичен координационен модел ще бъде изготвено от бъдещата работна група, което допълнително затруднява яснотата относно институционалната структура.
Министерството подчертава участието си в Европейския съвет по изкуствен интелект и неговите подгрупи, както и полученията одобрение за финансиране по Инструмента за техническа подкрепа на Европейската комисия за 2024 г. В същото време, постигнато е забавяне от страна на Европейската комисия в назначаването на изпълнител за проекта.
Допълнително проектно предложение за 2026 г. за изграждане на административен капацитет и регулаторна лаборатория за ИИ с бюджет 213 520 евро е оценено от Министерството на финансите като нископриоритетно, в съответствие с решение на Министерския съвет от 30 октомври 2025 г.
Основни предизвикателства, идентифицирани от МЕУ, включват недостиг на необходимия експертен капацитет, потребност от техническа инфраструктура и сложно институционално взаимодействие, произтичащо от хоризонталния характер на AI Act. Предстои анализ на конкретните нужди на администрацията и компетентните органи след като бъдат ясно определени техните отговорности в бъдещата нормативна уредба.
Какво липсва в момента?
Предоставените отговори показват, че прилагането на AI Act в България се намира на преждевременен етап, без завършена национална рамка и ясни отговорности за надзора над високорисковите ИИ системи. Към момента няма приети решения за националния координационен модел, конкретните органи за пазарен надзор, санкциите и националния регистър на ИИ системите. Междуведомствената работна група, която трябва да работи по тези компоненти, е формално създадена, но нормативната уредба не се очаква преди 2026 г. Това означава, че през началния период на прилагане на регламента България ще разчита на временни решения и институционална координация, която все още се изгражда, с ограничена предсказуемост за бизнеса, администрацията и контролиращите органи. В този правен вакуум регламентът ще бъде формално в сила, но реалното негово прилагане ще остане ограничено и трудно предсказуемо.




