ChatGPT, изкуствен интелект

Най-новата сензация на изкуствения интелект – чатботът ChatGPT изпрати европейските правила, затова как да регулират изкуствения интелект (AI), обратно към чертожната дъска.

Чатботът превзе интернет през последните месеци с бързото си развитие. Той обяви любовта си към журналист от New York Times. Написа хайку за освободени от лаборатория маймуни. Дори стигна до залата на Европейския парламент, където двама германски членове изнесоха речи, изготвени от ChatGPT, за да подчертаят необходимостта от овладяване на AI технологията.

Но след месеци на мърморене от страна на критиците технологията изправя регулаторите на ЕС пред озадачаващ въпрос: Как да поставим това нещо под контрол?

Технологията вече надмина работата, извършена от ЕК, ЕП и Съвета на ЕС по проекта на блока за Закон за изкуствения интелект. Регламентът, предложен от Комисията през 2021 г., е предназначен да забрани някои приложения на AI като социалното оценяване или разпознаването на лица. Той също така ще определи кои специфични употреби на AI са „високорискови“. Освен това ще обвърже разработчиците с по-строги изисквания за прозрачност, безопасност и човешки надзор.

Защо? ChatGPT може да служи както за добронамерени, така и за злонамерени цели.

Този тип изкуствен интелект, наречен голям езиков модел, има безброй предназначения. Хората могат да го карат да пише песни, романи и стихотворения, но също и компютърен код, политически бележки, фалшиви новини или, както колумбийски съдия призна, съдебни решения. Други модели пък са обучени да работят с изображения и могат да генерират всичко – от карикатури до фалшиви снимки на политици. Именно това предизвиква страха от дезинформация.

Технологията вече накара институциите на ЕС да пренапишат проектоплановете си.

Съветът на ЕС одобри своя версия на проектозакона за изкуствения интелект през декември. Той натоварва Комисията с установяването на изисквания за киберсигурност, прозрачност и управление на риска за AI.

Възходът на ChatGPT сега принуждава Европейския парламент да последва същия пример. През февруари водещите законодатели по Закона за изкуствения интелект, Брандо Бенифей и Драгош Тудораче, предложиха системите с изкуствен интелект, генериращи сложни текстове без човешки контрол, да бъдат определени като „високо рискови – опит да се попречи на ChatGPT да разпространява дезинформация в големи мащаби.

Идеята беше посрещната със скептицизъм от десните политически групи в Европейския парламент. Според Аксел Вос, виден десноцентристки депутат, изменението „ще направи много дейности, които изобщо не са рискови, високорискови“.

Двамата евродепутати работят и за налагане на по-строги изисквания към разработчиците и потребителите на ChatGPT и подобни на него AI модели. Те също така се опитват да наложат ограничения на големите доставчици на услуги, като същевременно запазват по-лек режим за обикновените потребители, които използват технологията.

„Професионалистите в сектори като образование, заетост, банкиране и правоприлагане трябва да са наясно „какво включва използването на този вид система за цели, които носят значителен риск за основните права на хората“, каза Бенифей.

Ако парламентът има проблеми с регулацията на ChatGPT, Брюксел се подготвя за преговори.

Европейската комисия, Съветът на ЕС и Парламентът ще уточнят подробностите за окончателния Закон за изкуствения интелект в преговори. Очаква се те да започнат най-рано през април, но преговарящите може да стигнат до задънена улица. А големите технологични компании, особено онези, които имат личен интерес, като Microsoft и Googl. наблюдават отблизо.

Неотдавнашно разследване на групата за прозрачност Corporate Europe Observatory твърди, че участници в индустрията, сред които Microsoft и Google, упорито са лобирали пред политиците в ЕС да изключат AI с общо предназначение като ChatGPT от задълженията, наложени на високорисковите AI системи.

Може ли самият бот да се притече на помощ на законодателите в ЕС?

Самият ChatGPT смята, че може да има нужда от регулиране:

„ЕС трябва да обмисли определянето на генеративния AI и големите езикови модели като технологии с „висок риск“, имайки предвид техният потенциал да създават вредно и подвеждащо съдържание“, отговори чатботът на въпроса на POLITICO дали следва да попада в обхвата на Закона за изкуствен интелект.

„ЕС трябва да обмисли въвеждането на рамка за отговорно развитие, внедряване и използване на тези технологии, която включва подходящи механизми за гарантиране на безопасността, наблюдение и надзор“, допълва изкуственият интелект.

Текстът е публикуван в „Политико“, преводът и заглавието са на ДЕБАТИ.БГ.

Още новини от Европа – четете тук

За още интересни новини, интервюта, анализи и коментари харесайте нашата страница ДЕБАТИ във Фейсбук!

ВАШИЯТ КОМЕНТАР

Моля въведете коментар!
Моля въведете името си тук