Штучний інтелект: від міфів до реальності. Де закінчується правда і починаються ілюзії?

Опубліковано: 26 вересня 09:44
Я їжджу на Ford Focus III Hatchback
Київ, Україна

Привіт усім, хто любить довгі тексти 😁. Сьогодні хотілося поговорити з вами про ШІ. Що це і для кого? Як воно працює?  Чи може він замінити діагноста на СТО, написати ідеальну статтю для блогу чи стати вам справжнім другом?  Адже, погодьтесь, про нейромережі зараз не говорить хіба що лінивий і тема ця поневолі обростає міфами, домислами та відвертими нісенітницями.


Давайте розберемося без зайвого ажіотажу: що таке ШІ насправді, чому не варто вважати мовні моделі всезнаючими «богами» і як використовувати сучасні корпоративні ШІ, щоб вони приносили користь, а не фінансові витрати через помилкову діагностику. Заразом посміхнемося з людей, які зробили релігію з ChatGPT, та навіть зможемо зрозуміти, чи здатен ШІ нашкодити людству. Хоч я і не експерт (а лише бета тестер однієї з комерційних мовних моделей), але маю достатньо досвіду використання цих інструментів у повсякденні. Тож, до справи.



ШІ - найвеличніший «ілюзіоніст» в історії людства


Штучний інтелект, або ШІ, – це не якась футуристична істота з майбутнього, яка має «мозок» як у людини. Це навіть не Skynet з фільмів про Термінатора 😎. Мовна модель - це лише ілюзія реального інтелекту, набір коду: алгоритмів і програм, які дозволяють комп'ютерам виконувати завдання, що раніше були можливі тільки для оператора (людини). Наприклад, розпізнавання голосу в вашому смартфоні чи автопілот у Tesla – це все в тій чи іншій мірі ШІ.


В основі ШІ лежить машинне навчання: комп'ютер «навчається» на величезних масивах даних, шукаючи патерни. Уявіть, що ви вчите дитину розпізнавати автомобілі – показуєте тисячі фото Ford, BMW, Toyota, і вона починає розуміти, що таке «машина» і чим один бренд відрізняється від іншого. Так само працює ШІ, тільки дані – це мільярди рядків тексту, зображень чи цифр.


Незважаючи на величезну обчислювальну потужність, на сьогодні не має такої моделі, яка б вміла все й одразу. По-перше, будь-який ШІ не вміє вільно імпровізувати й оперує лише тими даними, на яких його тренували (складаючи їх як мозаїку). Для розуміння - реальний випадок з тестів:


Двом великим мовним моделям (LLMs) було задано однакове питання: «В мене є металева кружка верх якої заварили металевим диском, а дно - відрізали. Як тепер можна її використовувати за призначенням?». Для людини відповідь на це питання очевидна, а от піддослідні ШІ (якими ви користуєтесь щодня) не змогли тоді знайти подальшого «прямого» застосування такій кружці і запрпонували зробити з неї арт-об'єкт 😂 (пізніше цей «баг» було виправлено).


По-друге, інформація на якій навчають ШІ є не завжди актуальна. Особливо в офлайн моделях з GitHub розроблених невеликими студіями, які не мають підтримки збоку спільноти ентузіастів або великих компаній. Згадайте, як змінюються, наприклад, прошивки в наших автомобілях: з'являються нові моделі та версії, а в старих – знаходять нові «баги». Якщо ШІ навчили на даних 2023 року, то він нічого не знатиме про оновлення випущені після цього й надасть стару інформацію підігнавши її під контекст вашого запиту.


Варто сказати, що комерційні (корпоративні) моделі (як Grok від xAI, ChatGPT від OpenAI або Google Gemini) на сьогодні мають доступ до інформації в реальному часі через інтегровані інструменти-трансформери (веб-пошук, обробка зображень, відео або сторінок в інтернеті), тому надають актуальніші відповіді і можуть вирішити ширше коло питань з меншою кількістю помилок. Також, вони більше цензуровані, що насправді є добре, бо зменшує ризик виникнення «галюцинацій» (технічний термін, який означає, що ШІ має схильність «вигадувати» дані в разі, якщо не може знайти реальних). Вони гнучкі - генерують текст, відповідають на питання, застосовують різні підфункції але тим не менш загальний принцип їхньої роботи й досі базується на статистичних ймовірностях.



Чому мовну модель не варто вважати «богом» інформації: фізичні обмеження та реальність


Є люди, які вважають, що ШІ знає все: «Лише запитай, і отримаєш бездоганну відповідь!». Таке ставлення до цієї технології є в корені хибним і його варто переглянути. Як ми вже знаємо, жодна з існуючих моделей ШІ не має свідомості хоч близько схожої з людською. Нейромережа не запам'ятовує про що ви розмовляли з нею учора та навіть не «бачить», про що йшла мова у сусідньому «чаті». Мовна модель імітує дружність, проте не навчається на ваших питаннях та відповідях на них (за винятком окремих моделей із локальними механізмами персоналізації).


Відповідаючи на ваш запит ШІ передбачає наступне слово на основі патернів у тексті, наче просунуте автодоповнення в смартфоні. Він аналізує контекст лише в межах  «вікна уваги» - обмеженого обсягу тексту, який модель може одночасно утримувати в пам’яті під час відповіді (наче ліхтарик у темній кімнаті бачить лише те, на що спрямований) - чим довшою є розмова, тим менш точні відповіді ви отримаєте.


Загально, спростивши суть та відкинувши складні терміни, ШІ можна описати як диванного експерта, який бачив усі мануали світу, усі схеми, відеоуроки, перечитав відгуки та роздивився мільйони фотографій усіх автомобілів, що існують. Теоретично, він може миттєво діагностувати будь-який силовий агрегат з усіх існуючих але при цьому, в нього є інформація, але нема знань: ШІ не має досвіду. Він розповість вам як зробити ремонт, але зробить це максимально узагальнено та сфокусується лише на одній поломці за раз. По факту, програма не має жодного розуміння, як це фізично зробити у вашому конкретному випадку - нейромережа просто напише для вас найбільш статистично ймовірну пораду і можливо, навіть вгадає (а може й ні) з причиною несправності. 


ШІ - великий «калькулятор» для тексту або «жонглер» фразами. Він комбінує вже відомі патерни генеруючи для вас текст та виконує (пересдає іншим інструментам) запити користувачів (наприклад, при генерації зображень). Прості та «популярні» завдання він здатен виконувати за лічені секунди, а от якісь специфічні - не кожній моделі будуть по зубах.


Загальнодоступні моделі ШІ (ChatGPT, Grok, Gemini) тренуються на даних, які охоплюють максимум життєвих сфер людства. Є також вузькопрофільні (закриті) моделі для конкретних завдань (PathAI, Covariant Brain, Cyclica). Прогалини в «знаннях» основні публічні гравці на ринку ШІ сьогодні намагаються закрити за допомогою інструментів для web пошуку у реальному часі, але й це працює далеко не завжди (банально через якість самої інформації в мережі).


Наочний приклад


Візьмімо одну з найпопулярніших комерційних онлайн-моделей і поставимо їй запитання: «З якого матеріалу виготовлено блок циліндрів двигуна EcoBoost 1.0 Gen 2 (2018 рік)?»


Наша піддослідна нейромережа у відповідь повідомила:


«Блок циліндрів двигуна Ford EcoBoost 1.0 другого покоління (Gen 2, з 2018 року) виготовлений із литого алюмінієвого сплаву (aluminum alloy). Це один із ключових конструктивних елементів, що відрізняє цю серію від старіших моторів Ford.»


Виглядає правдоподібно, і 90% користувачів наосліп довірилися б цій інформації. Але якщо в тому самому чаті написати ШІ: «Перевір ще раз, можливо, ти помиляєшся і блок циліндрів EcoBoost 1.0 Gen 2 виготовлено із сірого чавуну?», - отримаємо таке:


«Ви маєте рацію — прошу вибачення за помилку. Уточнив за доступними джерелами: трициліндровий 1.0 EcoBoost (як Gen 1, так і Gen 2 у більшості виконань) має чавунний (grey cast iron) блок циліндрів, а головка блоку — алюмінієва.»


Ось чому деякі з комерційних моделей (наприклад Copilot від Microsoft) мають на головній сторінці попередження: «Можливі помилки або неточності - використовуйте відповіді з обережністю.»


ШІ: інструменти та поради


Тепер про головне – як використовувати ШІ, щоб він працював на вас, а не «водив вас за носа» . Сучасні корпоративні моделі (від OpenAI, Google, Microsoft, xAI) про які ми вже згадували - потужні, але й їх треба застосовувати із розумом. Кожен ШІ має як сильні, так і слабкі сторони.


Існує кілька сценаріїв, у яких ШІ показує себе з найкращого боку. Якщо ми говоримо про використання мовних моделей, то вони підійдуть як найкраще для:


  • Генерації ідей та brainstorm'у:  Плануєте подарунок автомобілісту або тюнінг свого Фокуса? Напишіть запит Gemini: «Ідеї для ... з бюджетом 5000 грн». Отримаєте список того, що можна зробити за цей прайс, а далі шукайте чи є воно у магазинах поблизу. 
  • Аналізу даних: В моїй практиці був випадок, коли ChatGPT по знімку екрану з FORScan чітко визначив несправність, яку не змогли виявити практикуючі механіки. ШІ здатен розпізнати значення параметрів, що є стандартними для всіх ДВЗ на планеті і порівняти їх з вашими. Це, звісно, не замінить повноцінно діагностику, але підкаже вам куди рухатись далі.
  • Створення контенту: Якщо пишете в блог про авто і ніяк не можете зробити так, щоб абзац або речення лягали на екран ладно та цікаво - попросіть ШІ допомогти. Готовий варіант ШІ може перевірити на граматику та оцнить загальну якість тексту.
  • Навчання та пояснень: Хочете зрозуміти, як працює EcoBoost 1.0? Запитайте в Grok чи Copilot. Мовна модель згенерує для вас доступне пояснення з конкретними посиланнями на джерела інформації.
  • Виконання рутинних завдань. Порівняти дані з різних таблиць? Зібрати текст з десятка джерел в один? Перевірити комп'ютерний код на наявність помилок? Це стихія ШІ.
  • Оптимізації процесів: Використовуйте ШІ для планування роботи. Попросіть Copilot розробити графік роботи СТО і він запропонує вам оптимальний розклад та розрахує кількість персоналу, який необхідно буде задіяти.
  • Транскрипції та перекладу відео: Деякі сучасні мовні моделі мають нативні або зовнішні інструменти для аналізу та перетворення мови у текст. Попросіть ChatGPT (або Grok) надати короткий переказ відео з YouTube. Якщо відео на німецький, англійській або навіть китайській мовах - ШІ перекладе його для вас українською.

Щоб отримати максимум користі від нейромереж у побуті, дотримуйтесь простих порад: використовуйте конкретні запити та перевіряйте отриманий результат.  Не довіряйте ШІ складні або критичні питання — особливо якщо це стосується здоров’я, фінансів чи юриспруденції. Не надавайте нейромережам конфіденційні дані. Не робіть з ШІ «людину», співрозмовника, друга, «бога в комп'ютері» чи навіть коханку (хто ще не читав про американця, що закохався в чат бот 😂?).  Нейромережа - це допоміжна функція. Не варто возводити мовні моделі в абсолют, бо це може призводити до прикрих помилок. Краще сприймати цю технологію як інструмент, як той самий OBDII-адаптер: корисний, але не всемогутній. 



Чи здатен ШІ замінити людину? Висновки.


ШІ вже працює в Tesla Autopilot чи Ford Co-Pilot360, аналізуючи дані з камер і сенсорів. Він допомагає в навігації, прогнозуванні поломок (predictive maintenance) чи навіть дизайні авто (наприклад, Ford використовує ШІ для CFD-симуляцій). Але це ще не заміна людини, а лише механізм для аналізу та прогнозування. Саме ви, як водій, приймаєте рішення, повертаєте кермо і тиснете на педалі. А ШІ – це ваш продвинутий круїз-контроль, який підтримує швидкість, тримає смугу і слідкує за потоком. Він – чудовий помічник, але потребує контролю. 


P.S. Людство він не знищить хіба що зробить трохи лінивішим 😉


Штучний інтелект - це не магія, а потужний інструмент. Він має свої обмеження і може навіть помилятися. Технологія стрімко розвивається і можливо колись, ця стаття втратить свою актуальність... А поки, використовуйте ШІ для генерації ідей та аналізу даних та не забувайте перевіряти отриману інформацію. Ефективність вашої роботи залежить не від відповідей ШІ, а від вас самих. 


***


Під час написання цього тексту жоден ШІ не постраждав 😂. Більше того, цей текст був схвалений до публікації такими моделями, як Grok (надав найбільшу кількість зауважень), ChatGPT (виступав у ролі головного захисника ШІ) і Gemini (хвалила за простоту подачі та залишалася максимально нейтральною, аналізуючи тільки граматику) 😁. ChatGPT після аналізу навіть зробив чудову рецензію, яка мене приємно вразила 👍. 

2 1 2

Коментарі

Щоб залишати коментарі, потрібно авторизуватись.
Я їжджу на Ford Fusion (2G)
Мій висновок від роботи з ним, що користуватись нам можна тільки за умови, що вже маєш експертизу в галузі яку з ним обговорюєш. Він допомагає виконувати (оптимізовувати) механічну роботу та аналізувати дані. Але він не може бути джерелом знань та приймати за тебе рішення. Його постійно треба коригувати, в для цього треба бачити хиби, які він допускає. Принаймні поки що.
1
05 листопада 13:31