Олександра Ярошенко зазначає: "Ніхто не здатен надати точні дані про те, скільки наукових статей створюється за допомогою ChatGPT."
Педагогиня з Могилянської школи журналістики НаУКМА поділилася думками про труднощі та стереотипи, пов'язані з штучним інтелектом.
Активне використання штучного інтелекту в наукових колах створює ситуацію, коли велика кількість академічної літератури ним же генерується і оцінується. Про це під час міжнародної конференції "Медіаграмотність в умовах війни та глобальних трансформацій" повідомила викладачка Могилянської школи журналістики НАУКМА Олександра Ярошенко.
Під час обговорення на тему "Цифровізація та розвиток штучного інтелекту: виклики для медіаграмотності" Олександра Ярошенко зазначила, що рецензування наукових статей у журналах зазвичай не має фінансової компенсації. Це дозволяє рецензентам виконувати оцінювання наукових робіт з використанням штучного інтелекту без особливого розголосу. Також існує невизначеність щодо кількості наукових статей, створених із залученням технологій штучного інтелекту, зокрема ChatGPT. "Це призводить до абсурдної та тривожної ситуації: величезна кількість академічних матеріалів генерується, проходить оцінювання штучним інтелектом і потім публікується. Це може мати незвичайні наслідки для наукової сфери", -- підкреслила вона.
За її переконанням, якщо існує термін "штучний інтелект", то настав час запровадити поняття "штучний текст", яке б описувало матеріали, створені не людиною.
Олександра Ярошенко зазначає, що одним із найсерйозніших викликів для молодих журналістів є недостатнє розуміння концепцій штучного інтелекту. "Вони часто пишуть про цю тему, але багато з них плутають штучний інтелект з будь-якою комп'ютерною програмою або роботизованим пристроєм. Молодим спеціалістам, які не мають технічного фону, необхідно надати базові знання, щоб вони могли правильно розрізняти ці поняття. Наприклад, існують складні роботи, що збирають полуницю, але вони не оснащені штучним інтелектом. Водночас, невеликий домашній пилосос має штучний інтелект, оскільки він здатний сканувати приміщення і самостійно приймати рішення про обхід меблів".
Вона вважає, що студентам слід організовувати спеціальні курси, присвячені етиці штучного інтелекту. Це допоможе їм не лише оволодіти практичними навичками використання технологій, а й уникнути розповсюдження небезпечних міфів про них.
"Ідея про те, що штучний інтелект захопить світ, - це лише один з багатьох кумедних міфів. Існують значно більш небезпечні уявлення, такі як те, що ШІ чекає на свого користувача, поки той знову залогіниться і почне взаємодію. Це вводить в оману молодь, яка починає емоційно прив'язуватися до спілкування з чатботами," - зазначає викладачка.
На конференції "Медіаграмотність в умовах війни та глобальних трансформацій" директорка Департаменту інформаційної політики та безпеки інформації Міністерства культури та стратегічних комунікацій України Ганна Красноступ поділилася інформацією про те, як дослідження, що оцінюють рівень медіаосвіти українців, сприяють формуванню Стратегії з медіаграмотності у відомстві.