Розроблений Штучний Інтелект настільки «просунутий», що вважається небезпечним для випуску

Компанія OpenAI, що займає некомерційними дослідженнями, пов'язаними зі штучним інтелектом, домоглася прориву - ними був створений Штучний Інтелект, потенційно небезпечний для людини. Оскільки вміє брехати.

Далі розкаже «Житомир - місто майбутнього»

Точніше - видавати осмислений текст, який можна переплутати з тим, що виходить з-під пера деяких копірайтерів і політичних пропагандистів. Але через те, що  штучний інтелект, здатний вводити людину в оману - це небезпечно. Саме так вважають в OpenAI.

Що конкретно створили в OpenAI

Розробники з OpenAI використовували особливий алгоритм машинного навчання GPT2. Його сенс полягає в тому, що на основі «машинного досвіду» і аналізу мільйонів текстів, фраз і словосполучень, можна було передбачати, яке слово буде йти після зазначеного.

По суті, можна видати назву - а алгоритм, на підставі її, з нуля напише текст. Він не заснований ні на яких реальних подіях, але виглядає досить осмислено.

Ну, гаразд, не завжди осмислено - дуже часто спостерігаються як повторення слів, так і поєднання безглуздих фраз. А вже про логічні суперечності і говорити нічого - алгоритм ловить не логічний зв'язок явищ, а закономірність порядку слів.

І якщо зовсім вже чесно, то приблизно половина створених ним текстів схожі на мову пацієнта з яскраво вираженою шизофазією. Однак інша половина - цілком осмислені тексти. Значно гірше, звичайно, тих, які пишуть журналісти, але вже хоча б зіставні. Ось тільки продуктивність Штучного Інтелекту куди вище, ніж у живої людини. І в цьому-то і полягає небезпека.

У чому саме полягає небезпека подібного Штучного Інтелекта

Уявіть, що є алгоритм, який видає до десяти фейкових новин на годину. Новини звучать переконливо, але на перевірку - повна фікція. Однак перевірку ще потрібно провести, чого більшість людей робити не любить. Зате завжди готові відразу повірити в те, що відповідає їх уявленням про реальність.

Так, цей Штучний Інтелект може зайнятися приблизно тим же самим, що і творці різноманітної «жовтухи». Тільки швидше, краще і переконливіше. І людство буквально захлинеться в потоці неправдивої інформації, яку немає сил сортувати.

На щастя, все це тільки теорія. Швидкість роботи вже створеного інтелекту не перевищує 4 статті в годину, та і якість їх залишає бажати кращого. Але з огляду на темпи вдосконалення автоматичних алгоритмів, повноцінного Штучного Інтелекта-копірайтера можна буде очікувати вже протягом декількох найближчих років.

Тому співробітники OpenAI заздалегідь попереджають людство про небезпеку штучного інтелекту. Нехай краще людям брешуть тільки люди, а не ще й роботи.