Людина VS штучний інтелект: остання битва10 апреля 2023 | 09:44 , Олег Ельцов. ТЕМА Прогресивне людство занепоїлося загрозою знищення волею штучного інтелекту. Точаться дискусії, проводяться опитування. До половини громадян вважають, що повстання машин неминуче. Банди холодильників, прасок й пилосмоків, очолювані злим генієм Chat GPT, зітруть людство зі сторінок історії. Народ нервує не менше за перспективу вимирання від КОВІДу. Ніхто нічого не розуміє, принцип дії штучного інтелекту – то взагалі найбільша комерційна таємниця його творців. Але всі приготувалися до найгіршого. До процесу підключилися інтелектуали, які зазвичай такі самі невігласи у царині штучного інтелекту, як і решта. На ютюб каналі Юлія Романенка, де зазвичай не хайпують й намагаються користуватися логікою, обговорювати проблеми із залученням мозку, до теми «Chat GPT й смерть людства» поставилися з усією відповідальністю. Були задієна важка артилерія в особі філософа Сергія Дацюка та всебічно обдарованого Олексія Арестовича. Представницьке збіговисько встигло зібратися двічі й обіцяло продовжити дослідження смертельної небезпечної теми. Назагал висновок гуру: ми всі помрем. Поки не ясно коли. Зате ясно, що штучний й людський інтелекти тотожні. Просто ми трохи розумніші. Але це не на довго. Одразу помітно, що філософські експерти близько не стояли із темою сучасного програмування й штучного інтелекту. У їхній уяві мислення штучного інтелекту й мислення людини не відрізняються й в них відбуваються ті самі процеси за тими самими принципами. Під час обговорення проблеми Романенко з посмішкою на обличчі зачитував коменти слухачів: «Ви б бодай одного компьютерника запросили в студію». Але, вочевидь, на думку учасників, зайві знання філософові лише заважають. В уяві трійки фігурантів людина – це щось зрозуміле, розгадане, вона як складна машина – діє за відкритими законами фізики, але час від часу ламається. Штучний інтелект вони бачать калькою з людського. Й оскільки історія людства чітко свідчить, що людина – то є страшне жорстоке створіння, яке прагне знищити все навколо себе, передовсім собі подібних, то й штучний інтелект має бути тим самим. Звідси простецький висновок: щойно Chat GPT перевищить наші розумові здібності, то він зробить те саме, що люди робили у перебігу всієї історії: знищить все. Я витримав обговорення мудреців в студії до кінця. Але зрозумів, що окрім мудрості інколи не завадить мати елементарні знання предмету. Троє філософів якось недбало згадали тему особистості, питання свободи волі й проблему постановки задачі й ухвалення рішення. Це все так звані «складні питання філософії». Над ними ламали голову канти-гегелі але досі узгодженої відповіді на ці запитання не існує ані у філософів, ані у вчених, що займаються вивченням мозку людини. Без обговорення цих питань подальші балачки в студії не варті ефірного часу. Ця базова помилка дискусії логічно призвела до наступних. Ототожнивши інтелект людський зі штучним, учасники позбавили людину складності й заплутаності її організму. В студії жодного разу не прозвучала згадка про гормональну, тим більше – гуморальну систему людини. А оце, власне – наша принципова відмінність від комп’ютера. На думку більшості людей й гостей студії Романенка наш мозок (правильно сказати – нервова система) – це машина з ухвалення рішень, які видають закладені алгоритми. Якби так було, наше життя було б гранично логічним, упорядкованим, пердбачуваним й нудним. Але, спрощено кажучи, на наш мозок безупинно ллється купа всілякої хімії, яка гранично змінює його роботу й кінцевий результат. З Chat GPT такого не відбувається. Так, в ньому є програмні глюки, але в нього немає інших систем, здатних впливати на його роботу. Це принципова відмінність між нами та отим штучним, що так лякає філософів й домогосподарок. Вони чомусь переконані, що ШІ захоче нас перемогти, а краще знищити. Але існує елементарне правило, яке повинен знати кожен філософ: у будь-якої дії має бути мотив. Звідки ж взятися тому мотиву у Chat GPT? Над цим трійця Романко-Дацюк-Арестович не ламають голову. Доведеться їм допомогти: у ШІ не може бути мотиву, бо в ного немає особистості, він не має почуттів. Звідки ж в нас беруться почуття? Оте все: жорстокість, прагнення знищення всього навкруги й самознищення? Тут, в принципі наука має доволі чіткі пояснення. Людина, її особистість як представника виду й як унікальної персони - це те, що закладено в нас при народжені генним кодом, набуте на життєвому шляху й обов’язково «підкореговане» роботою передовсім гуморальної системи. Наші вчинки й прагнення гранично різняться за різних обставин – залежно від роботи й взаємодії нервової й гуморальних систем. Реакція на те саме явище однієї людини може бути діаметрально протилежним в залежності від її стану (втомленість, голод, збудження, агресія, тощо). Якщо ми перелякані, тоді залежно від роботи гуморальної системи, яка у всіх людей різна, ми або втікатимемо або атакуватимемо предмет небезпеки. Чи є у ШІ інстинкт самозбереження, чи прописаний він програмістом? Яким може бути мотив Chat GPT для знищення людства? В нього не може бути мотиву, бо він не є особистістю. Відповідно, він не може ставити задачі. То кого нам лякатися, й хто є загрозою знищення людства? Правильно: лише людина. Це може бути безпосередньо програміст, який випише алгорітм, спрямований на досягнення мети – знищення усього людства чи якоїсь його частини за расовою, географічною ознакою, за зростом чи кольором очей. Саме це мало б стати остаточним висновком двох довгих й нудних обговорень в студії Юрія Романенка, якби учасники трохи зналися на предметі. Так, загроза під назво ШІ існує. Але це лише небезпечний інструмент в руках людини, запрограмованої на самознищення. У цьому контексті існує один вкрай небезпечний аспект, на який оперативно звернули увагу провідники ІТ-індустрії, нещодавно підписавши колективний лист, у якому вони закликають пригальмувати розвиток Chat GPT. На сам лист жваво відреагувала преса, але ніхто не намагався розібратися: що стало підставою для його написання. Втім, це тема окремого допису. также читайте[20.09.2024] [19.09.2024] |
по темеСША выползают из Китая01. 10. 2024 | 11:49 Незабутня пригода в маршрутці №49030. 09. 2024 | 09:22 , Олег Єльцов. ТЕМА Система обратной связи для сайта: как увеличить количество обращений с помощью виджета обратного звонка26. 09. 2024 | 22:45 Санкции против Раши и Китая - миф26. 09. 2024 | 19:38 , Алексей Кущ
04 октября 2024
02 октября 2024 01 октября 2024 фототема (архивное фото) |
|||
новости | архив | фототема | редакция | RSS © 2005 - 2007 «ТЕМА» |