AI Моделі не володіють моральним прийняттям рішень, встановив дослідження вчених Microsoft

Нещодавнє дослідження, проведене вченими Microsoft, підкреслило відсутність моральних розуміння в AI моделях. Хоча AI моделі зробили значний прогрес у обробці мови і можуть розмовляти як люди, вони зіткнуться з труднощами, коли стануть перед вибором морально прийнятих рішень. Вчені використовували психологічний інструмент оцінки, відомий як Test Defining Issues (DIT), щоб оцінити моральні розумові здібності різних AI моделей.
Дослідження показало, що більші моделі, такі як GPT-3, проявляють недоліки в розумінні вказівок, що призводить до морального розумового визначення, що нагадує показники випадкового вибору. Однак менші моделі, такі як ChatGPT і Text-davinci-003, показали вищий рівень зв’язності у своїх моральних розумових здібностях. Цікаво, що більш компактна модель LlamaChat 70B перевершує своїх більших аналогів і демонструє високий рівень розуміння етики без масивних параметрів.
Варто відзначити, що жодна з моделей не проявила високорозвинений рівень морального розумового визначення. Дослідники прийшли до висновку, що, хоча ці моделі проявляють здатність перетинати базовий егоїзм, вони зіткнуться з труднощами, коли постають перед етичними дилемами та складними компромісами.
Дослідження також підкреслило обмеження AI моделей, крім морального розумового визначення, таких як посилення стереотипів щодо статі, етнічного походження і релігії, наявних у даних для навчання. Ці упередження можуть призвести до потенційних шкідливих наслідків у реальних застосуваннях.
Хоча AI має потенціал революціонізувати різні галузі, включаючи охорону здоров’я та освіту, важливо вирішити проблему відсутності морального розумового прийняття рішень у цих моделях. Без морального компасу вплив AI моделей може мати шкідливі наслідки, як вказують фахівці з індустрії.
Дослідження Microsoft надає увійду в етичні можливості AI моделей і спрямоване на керівництво подальшими дослідженнями в цій галузі. Оцінки на основі спектра, такі як DIT, використані в дослідженні, можуть допомогти створити менш потенційно шкідливі моделі, кількісно визначаючи складність їх морального розумового визначення.
Джерела:
– “AI’s Moral Development Lags Behind Its Language Skills: Study” – News18
– “Evaluating the Ethical Capabilities of Language Models” – Microsoft Research

Марцін Фронкевич – відомий автор і блогер, який спеціалізується на супутниковому зв’язку та штучному інтелекті. Його проникливі статті заглиблюються в тонкощі цих сфер, пропонуючи читачам глибоке розуміння складних технологічних концепцій. Його роботи відомі своєю ясністю і грунтовністю.