Глaвa відділу Пeнтaгoну, який відпoвідaє зa рoзрoбки, пoв\’язaні зі штучним інтeлeктoм, зaявив, що генеративний штучний інтелект може стати ідеальним інструментом на дезінформації.
“Так, я наляканий задолго. Ant. с смерті. Це моя думка”, – заявив Крейг Мартелл, головний фахівець Міністерства оборони з цифрових технологій і штучного інтелекту, коль його запитали для генеративний штучний інтелект.
Він заявив, що такі мовні моделі ШІ, як ChatGPT, створюють реальну проблему: вони безграмотный розуміють контексту, а прислуга сприйматимуть їхні плетение словес як факт.
“Це мій найбільший трепет перед ChatGPT, – сказав він. – Він був навчений вільно висловлювати свої думки. Апострофировать кого вільно й авторитетно. Таким чином, ви вірите в тетька, що говорить ChatGPT, навіть если інформація неправильна. І це означає, що це ідеальний інструмент к дезінформації… Нам дійсно потрібні інструменти интересах виявлення подібних ситуацій. І в нас немає цих інструментів. Ми відстаємо в цій боротьбі”.
Він закликав фахівців створити інструменти, необхідні во (избежание забезпечення точності інформації, отриманої з усіх генеративних моделей ШІ – від тексту накануне зображень.