В ЕС влязоха в сила нови правила за прозрачност на изкуствения интелект
- Редактор: Петя Георгиева
- Коментари: 2

ChatGPT и Gemini трябва да разкрият как са обучени и какви данни използват
В Европейския съюз днес влизат в сила исторически нови правила за прозрачност на базирани на изкуствен интелект езикови модели като ChatGPT и Gemini. Новите разпоредби са част от Закона за изкуствения интелект, приет миналата година, и представляват първата в света цялостна регулация на AI технологиите.
Правилата се отнасят за базирани на изкуствен интелект системи с общо предназначение, които могат да се използват за множество цели - генериране на текст, анализ на език или писане на програмен код. Според новите изисквания разработчиците трябва да предоставят подробна информация за това как работят техните модели и какви данни са използвали за обучението им.
Засилване на защитата на авторските права
Една от основните цели на законодателството е да засили защитата на авторските права в дигиталната ера. От днес нататък разработчиците ще трябва задължително да съобщават източниците на данните, използвани за обучение на техните модели, както и дали са използвали автоматизирано събиране на информация от интернет.
Освен това компаниите трябва да описват какви конкретни стъпки са предприели за защита на интелектуалната собственост и да осигуряват ефективни начини за връзка с носителите на права. За най-напредналите AI системи, които могат да създадат значителни рискове за обществото, се изисква подробна документация за мерките за безопасност.
Критики и предупреждения
Въпреки новите регулации, няколко организации на автори, артисти и издатели изразиха недоволство, че законът не е достатъчно строг. Германска инициатива за авторското право посочи в съвместна декларация, че правилата няма да бъдат ефективни, ако не се изисква ясно посочване на конкретните набори от данни или уебсайтове, използвани при обучението.
Компанията Google, разработчик на модела Gemini, заяви, че възнамерява да подпише доброволния кодекс за поведение, публикуван от Европейската комисия. Същевременно обаче предупредиха, че прекомерните регулации могат да ограничат иновациите в сферата на изкуствения интелект.
Глоби и контрол
Новите разпоредби позволяват на отделни лица да съдят доставчици на базирани на изкуствен интелект услуги. При нарушения могат да бъдат наложени значителни глоби - до 15 милиона евро или 3 процента от общия годишен оборот на компанията.
Реалният контрол от страна на новосъздадената Европейска служба за изкуствения интелект обаче ще започне на по-късен етап. За да улесни прилагането на закона, Европейската комисия публикува специални насоки и кодекс за поведение за компаниите в сектора.























Докладвай този коментар за нередност
×Нефелни: Поредната нефелна регулацийка на джендер некадърниците, колкото да кажат, че са "взели мерки". Тези мерки са само с цел улеснявани корупцията на бюрократчетата. За обикновените хора, чието съдържание и самоличност се краде от ИИ защита и права - НУЛА !!!
Докладвай този коментар за нередност
×Нефелни: Поредната нефелна регулацийка на джендер некадърниците, колкото да кажат, че са "взели мерки". Тези мерки са само с цел олеснявани корупцията на бюрократчетата. За обикновените хора, чието съдържание и самоличност се краде от ИИ защита и права - НУЛА !!!