ТЕМА

Людина VS штучний інтелект: остання битва

10 апреля 2023 | 09:44 , Олег Ельцов. ТЕМА

Прогресивне людство занепоїлося загрозою знищення волею штучного інтелекту. Точаться дискусії, проводяться опитування. До половини громадян вважають, що повстання машин неминуче. Банди холодильників, прасок й пилосмоків, очолювані злим генієм Chat GPT, зітруть людство зі сторінок історії. Народ нервує не менше за перспективу вимирання від КОВІДу.


Ніхто нічого не розуміє, принцип дії штучного інтелекту – то взагалі найбільша комерційна таємниця його творців. Але всі приготувалися до найгіршого. До процесу підключилися інтелектуали, які зазвичай такі самі невігласи у царині штучного інтелекту, як і решта.

На ютюб каналі Юлія Романенка, де зазвичай не хайпують й намагаються користуватися логікою, обговорювати проблеми із залученням мозку, до теми «Chat GPT й смерть людства» поставилися з усією відповідальністю. Були задієна важка артилерія в особі філософа Сергія Дацюка та всебічно обдарованого Олексія Арестовича. Представницьке збіговисько встигло зібратися двічі й обіцяло продовжити дослідження смертельної небезпечної теми. Назагал висновок гуру: ми всі помрем. Поки не ясно коли. Зате ясно, що штучний й людський інтелекти тотожні. Просто ми трохи розумніші. Але це не на довго.

Одразу помітно, що філософські експерти близько не стояли із темою сучасного програмування й штучного інтелекту. У їхній уяві мислення штучного інтелекту й мислення людини не відрізняються й в них відбуваються ті самі процеси за тими самими принципами. Під час обговорення проблеми Романенко з посмішкою на обличчі зачитував коменти слухачів: «Ви б бодай одного компьютерника запросили в студію». Але, вочевидь, на думку учасників, зайві знання філософові лише заважають.

В уяві трійки фігурантів людина – це щось зрозуміле, розгадане, вона як складна машина – діє за відкритими законами фізики, але час від часу ламається. Штучний інтелект вони бачать калькою з людського. Й оскільки історія людства чітко свідчить, що людина – то є страшне жорстоке створіння, яке прагне знищити все навколо себе, передовсім собі подібних,  то й штучний інтелект має бути тим самим. Звідси простецький висновок: щойно Chat GPT перевищить наші розумові здібності, то він зробить те саме, що люди робили у перебігу всієї історії: знищить все.

Я витримав обговорення мудреців в студії до кінця. Але зрозумів, що окрім мудрості інколи не завадить мати елементарні знання предмету.

Троє філософів якось недбало згадали тему особистості, питання свободи волі й проблему постановки задачі й ухвалення рішення. Це все так звані «складні питання філософії». Над ними ламали голову канти-гегелі але досі узгодженої відповіді на ці запитання не існує ані у філософів, ані у вчених, що займаються вивченням мозку людини. Без обговорення цих питань подальші балачки в студії не варті ефірного часу.

Ця базова помилка дискусії логічно призвела до наступних. Ототожнивши інтелект людський зі штучним, учасники позбавили людину складності й заплутаності її організму. В студії жодного разу не прозвучала згадка про гормональну, тим більше – гуморальну систему людини. А оце, власне – наша принципова відмінність від комп’ютера. На думку більшості людей й гостей студії Романенка наш мозок (правильно сказати – нервова система) – це машина з ухвалення рішень, які видають закладені алгоритми. Якби так було, наше життя було б гранично логічним, упорядкованим, пердбачуваним й нудним. Але, спрощено кажучи, на наш мозок безупинно ллється купа всілякої хімії, яка гранично змінює його роботу й кінцевий результат. З Chat GPT такого не відбувається. Так, в ньому є програмні глюки, але в нього немає інших систем, здатних впливати на його роботу. Це принципова відмінність між нами та отим штучним, що так лякає філософів й домогосподарок.

Вони чомусь переконані, що ШІ захоче нас перемогти, а краще знищити. Але існує елементарне правило, яке повинен знати кожен філософ: у будь-якої дії має бути мотив. Звідки ж взятися тому мотиву у Chat GPT? Над цим трійця Романко-Дацюк-Арестович не ламають голову. Доведеться їм допомогти: у ШІ не може бути мотиву, бо в ного немає особистості, він не має почуттів. Звідки ж в нас беруться почуття? Оте все: жорстокість, прагнення знищення всього навкруги й самознищення? Тут, в принципі наука має доволі чіткі пояснення. Людина, її особистість як представника виду й як унікальної персони - це те, що закладено в нас при народжені генним кодом, набуте на життєвому шляху й обов’язково «підкореговане» роботою передовсім гуморальної системи. Наші вчинки й прагнення гранично різняться за різних обставин – залежно від роботи й взаємодії нервової й гуморальних систем. Реакція на те саме явище однієї людини може бути діаметрально протилежним в залежності від її стану (втомленість, голод, збудження, агресія, тощо). Якщо ми перелякані, тоді залежно від роботи гуморальної системи, яка у всіх людей різна, ми або втікатимемо або атакуватимемо предмет небезпеки.

Чи є у ШІ інстинкт самозбереження, чи прописаний він програмістом? Яким може бути мотив Chat GPT для знищення людства? В нього не може бути мотиву, бо він не є особистістю. Відповідно, він не може ставити задачі. То кого нам лякатися, й хто є загрозою знищення людства? Правильно: лише людина. Це може бути безпосередньо програміст, який випише алгорітм, спрямований на досягнення мети – знищення усього людства чи якоїсь його частини за расовою, географічною ознакою, за зростом чи кольором очей.

Саме це мало б стати остаточним висновком двох довгих й нудних обговорень в студії Юрія Романенка, якби учасники трохи зналися на предметі.

Так, загроза під назво ШІ існує. Але це лише небезпечний інструмент в руках людини, запрограмованої на самознищення.

У цьому контексті існує один вкрай небезпечний аспект, на який оперативно звернули увагу провідники ІТ-індустрії, нещодавно підписавши колективний лист, у якому вони закликають пригальмувати розвиток Chat GPT. На сам лист жваво відреагувала преса, але ніхто не намагався розібратися: що стало підставою для його написання. Втім, це тема окремого допису.  



Комментировать статью
Автор*:
Текст*:
Доступно для ввода 800 символов
Проверка*:
 

также читайте

по теме

фототема (архивное фото)

© фото: Олег Ельцов

   
новости   |   архив   |   фототема   |   редакция   |   RSS

© 2005 - 2007 «ТЕМА»
Перепечатка материалов в полном и сокращенном виде - только с письменного разрешения.
Для интернет-изданий - без ограничений при обязательном условии: указание имени и адреса нашего ресурса (гиперссылка).

Код нашей кнопки: