Associated Press опублікувала рекомендації щодо використання генеративного штучного інтелекту, оскільки відома новинна організація підкреслила роль людського нагляду в журналістиці.
Associated Press. Зображення: Shutterstock
Намагаючись усунути будь-який потенційний негативний вплив на свої репортажі, Associated Press у середу випустило нові вказівки, які обмежують використання журналістами інструментів генеративного штучного інтелекту для репортажів новин.
Аманда Барретт, віце-президент AP зі стандартів і включення, виклала деякі обмеження щодо того, як AP вирішуватиме майбутні проблеми ШІ. По-перше, журналістам заборонено використовувати ChatGPT для створення контенту для публікації.
«Будь-який вихід із генеративних інструментів штучного інтелекту слід вважати неперевіреним вихідним матеріалом», — написав Барретт, додавши, що співробітники повинні керуватися своїм редакційним судженням і стандартами джерела ЗМІ, розглядаючи будь-яку інформацію для публікації.
Крім того, AP не дозволяє використовувати генеративний штучний інтелект для додавання або видалення елементів із фотографій, відео чи аудіо. Він також не передаватиме створені штучним інтелектом зображення, підозрювані в тому, що вони «помилково зображені», відомі як deepfakes, якщо вони не є темою історії та чітко позначені.
Барретт попередив співробітників, що оскільки генеративний штучний інтелект може легко поширювати дезінформацію, Барретт порадив журналістам AP бути уважними та проявляти звичну обережність і скептицизм, зокрема намагатися визначити джерело оригінального вмісту.
«Якщо у журналістів є сумніви щодо правдивості цього матеріалу, — написала вона, — їм не варто його використовувати».
Хоча стаття підкреслювала обмеження здатності журналістів AP використовувати генеративний штучний інтелект, у деяких колах вона викликала оптимістичний тон, припускаючи, що інструменти штучного інтелекту також можуть принести користь журналістам у репортажах.
«Точність, справедливість і швидкість є основними цінностями новин AP, і ми віримо, що обережне використання штучного інтелекту може служити цим цінностям і з часом покращити спосіб нашої роботи», — написав Баррет.
Крім того, вона уточнила, що 177-річна новинна організація не вірить, що ШІ може замінити репортерів, додавши, що репортери AP несуть відповідальність за точність і чесність інформації, якою вони діляться.
Барретт вказав на ліцензійну угоду, підписану AP з OpenAI минулого місяця, яка надала творцям ChatGPT доступ до архіву новин AP, починаючи з 1985 року. В обмін на це угода надає ЗМІ доступ до набору продуктів і технологій OpenAI.
Новини про угоду з OpenAI з’явилися через кілька днів після того, як стартап зі штучного інтелекту виділив 5 мільйонів доларів США Journal Project. Того ж місяця OpenAI підписав шестирічну угоду зі фондовою медіа-платформою Shutterstock, щоб отримати доступ до її величезної бібліотеки зображень і медіа.
Серед усього ажіотажу щодо потенціалу генеративного штучного інтелекту та здатності розмовного пошуку інформації через чат-ботів зростає занепокоєння щодо точності деякої інформації, яка в кінцевому підсумку надається користувачам.
Хоча чат-боти штучного інтелекту можуть генерувати відповіді, які здаються реальними, вони також мають добре відому звичку викликати відповіді, які насправді є нереальними. Це явище, відоме як галюцинації ШІ, може генерувати неправдивий вміст, новини або інформацію про людей, події чи факти. А
Рекомендації AP обмежують журналістам використання генеративного штучного інтелекту
Associated Press опублікувала рекомендації щодо використання генеративного штучного інтелекту, оскільки відома новинна організація підкреслила роль людського нагляду в журналістиці.
Associated Press. Зображення: Shutterstock
Намагаючись усунути будь-який потенційний негативний вплив на свої репортажі, Associated Press у середу випустило нові вказівки, які обмежують використання журналістами інструментів генеративного штучного інтелекту для репортажів новин.
Аманда Барретт, віце-президент AP зі стандартів і включення, виклала деякі обмеження щодо того, як AP вирішуватиме майбутні проблеми ШІ. По-перше, журналістам заборонено використовувати ChatGPT для створення контенту для публікації.
«Будь-який вихід із генеративних інструментів штучного інтелекту слід вважати неперевіреним вихідним матеріалом», — написав Барретт, додавши, що співробітники повинні керуватися своїм редакційним судженням і стандартами джерела ЗМІ, розглядаючи будь-яку інформацію для публікації.
Крім того, AP не дозволяє використовувати генеративний штучний інтелект для додавання або видалення елементів із фотографій, відео чи аудіо. Він також не передаватиме створені штучним інтелектом зображення, підозрювані в тому, що вони «помилково зображені», відомі як deepfakes, якщо вони не є темою історії та чітко позначені.
Барретт попередив співробітників, що оскільки генеративний штучний інтелект може легко поширювати дезінформацію, Барретт порадив журналістам AP бути уважними та проявляти звичну обережність і скептицизм, зокрема намагатися визначити джерело оригінального вмісту.
«Якщо у журналістів є сумніви щодо правдивості цього матеріалу, — написала вона, — їм не варто його використовувати».
Хоча стаття підкреслювала обмеження здатності журналістів AP використовувати генеративний штучний інтелект, у деяких колах вона викликала оптимістичний тон, припускаючи, що інструменти штучного інтелекту також можуть принести користь журналістам у репортажах.
«Точність, справедливість і швидкість є основними цінностями новин AP, і ми віримо, що обережне використання штучного інтелекту може служити цим цінностям і з часом покращити спосіб нашої роботи», — написав Баррет.
Крім того, вона уточнила, що 177-річна новинна організація не вірить, що ШІ може замінити репортерів, додавши, що репортери AP несуть відповідальність за точність і чесність інформації, якою вони діляться.
Барретт вказав на ліцензійну угоду, підписану AP з OpenAI минулого місяця, яка надала творцям ChatGPT доступ до архіву новин AP, починаючи з 1985 року. В обмін на це угода надає ЗМІ доступ до набору продуктів і технологій OpenAI.
Новини про угоду з OpenAI з’явилися через кілька днів після того, як стартап зі штучного інтелекту виділив 5 мільйонів доларів США Journal Project. Того ж місяця OpenAI підписав шестирічну угоду зі фондовою медіа-платформою Shutterstock, щоб отримати доступ до її величезної бібліотеки зображень і медіа.
Серед усього ажіотажу щодо потенціалу генеративного штучного інтелекту та здатності розмовного пошуку інформації через чат-ботів зростає занепокоєння щодо точності деякої інформації, яка в кінцевому підсумку надається користувачам.
Хоча чат-боти штучного інтелекту можуть генерувати відповіді, які здаються реальними, вони також мають добре відому звичку викликати відповіді, які насправді є нереальними. Це явище, відоме як галюцинації ШІ, може генерувати неправдивий вміст, новини або інформацію про людей, події чи факти. А