Експерт по БНР: Политиците не разбират каква технология е изкуственият интелект

  • 18.09.2023
  • БНР

Политиците не са наясно с рисковете от ИИ, а технологичните гиганти се застраховат, като искат регулации, смята Мариана Тодорова, интервюирана в програмата на БНР "Хоризонт до обед".

Шансовете "Скайнет" – съзнателната компютърна мрежа от филма "Терминатор", която унищожава света с човешките оръжия, да се "събуди", са 50:50, смята футурологът Мариана Тодорова от Института по философия и социология към БАН. Тя бе интервюирана в предаването "Хоризонт до обед" по БНР.

В интервю за БНР Тодорова коментира последните разговори в американския Конгрес с ръководителите на големите технологични компании за контрола върху изкуствения интелект, както и казуса с  намесата на Илон Мъск в някои от политическите дела около войната в Украйна.

"Не само Илон Мъск инициира среща в Конгреса и Сената. Сам Алтман, с популяризацията на ChatGPT и OpenAI инициира редица срещи с водещи политици имаше изслушване в Конгреса, което беше доста критично към него. След това започна нещо като политическо турне и се срещна с президенти и министър-председатели от различни страни по целия свят."

Самите технологични лидери осъзнаха, че политиците не разбират каква технология е изкуственият интелект, подчерта Тодорова. Тя споделя мнението, че политиците не са наясно с рисковете.

"Затова и Сам Алтман, и Илон Мъск, осъзнавайки, че самите те изпускат контрола и не биха могли да предвидят всички последици, защото самият изкуствен интелект, проявен в тези големи генеративни езикови модели, е като черна кутия. Иззеха това лидерство, започнаха да търсят мнението и на политици, и на неправителствения сектор и искат да предизвикат глобален дебат."

Досега собствениците на подобни компании винаги са се интересували от ефективността и печалбата, а сега те са тези, които искат регулации, отбеляза Мариана Тодорова. По думите ѝ това е така, защото самите те не знаят "как би възникнало следващото ниво на ИИ, който е конкурентен на нас, не могат да предвидят този процес".

"Следващият голям проблем е изравняването с човешките ценности. Човечеството не е намерило механизъм да изгради някаква глобална етика и да се разбира, затова и все още войните са ключово средство за решаване на конфликти."

Последните езикови модели са изградени от невронни мрежи, конструирани подобно на нашия мозък и съдържат стотици пластове, а самите разработчици докладват, че виждат какво се случва само в първите три пласта, изтъкна още Тодорова.

"Тоест, когато метафората за черна кутия в ИИ е наистина жива и обяснява картината, частично ние вече знаем, че не можем да упражняваме контрол, те разчитат само на това да има консенсус за регулации, така че при евентуален проблем да не носят само те вината. В случая те се застраховат и печалбата не е на първо място." Разработчиците докладват за критични моменти, уточни Мариана Тодорова.

"Също така е правил опит ChatGPT4 да достигне до критична инфраструктура. Всяка връзка с физическия свят – ядрена централа или дрон, която не е под надзора на човека, е възможно потенциално голямо бедствие или планетарна катастрофа. Още догодина ChatGPT 4 и другите езикови модели ще заместят човешките тролове и ще бъдат произведени стотици хиляди фалшиви новини. Наскоро правих експеримент, питайки един от тези езикови модели за историята на София, и той изхалюцинира – каза, че София е столица от 9. век."  

Сред рисковете, които футурологът открои, са блокиране на градове, спиране на електричество и други подобни, които биха били равносилни на атентат.

ИИ ще бъде глобално явление и когато една страна има дадено достижение, другите ще трябва да я догонват, за да не губят геополитически и геостратегически предимства, коментира Мариана Тодорова в предаването "Хоризонт до обед".

Технологичните гиганти ще имат все по-голямо влияние. Киберсигурността ще бъде по-важна от реалната сигурност, а войните ще бъдат все повече кибервойни, прогнозира тя.