OpenAI таємно використовувала Reddit r/ChangeMyView для тестування переконливості AI, але деякі користувачі стурбовані питаннями збору даних і ризиками надто переконливих моделей. В OpenAI наростає тривога: як їх експерименти з AI можуть вплинути на етику переконання?

OpenAI використовує Reddit для навчання AI — чи тестується ваша думка?

OpenAI використовує Reddit для тестування переконливості своїх AI моделей

З розвитком технологій збільшується й інтерес до того, як штучний інтелект може впливати на нашу думку. OpenAI, один з лідерів у цій галузі, вирішив використати Reddit, зокрема підфорум r/ChangeMyView, як тестовий полігон для своїх AI моделей. Це піднімає цікаві питання стосовно джерел даних, впливу ШІ та етики.

Як працює експеримент OpenAI?

OpenAI використовує r/ChangeMyView не просто як платформу для дискусій, а як ресурс для тестування своїх здатностей впливати на людську думку. Читачі цього підфоруму зазвичай висловлюють свої тверді міркування і приймають виклики на контраргументацію, що надає безцінний набір даних людського міркування.

Процес OpenAI полягає у зборі цих дискусій, генерація AI відповідей у закритому тестовому середовищі, а потім порівнянні аргументів, згенерованих AI, з тими, що надійшли від людей. Це допомагає визначити, наскільки переконливими є відповіді AI, що в підсумку дозволяє покращувати моделі.

Anna під прицілом Reddit

Згідно з даними, Reddit став майданчиком, де великі технологічні компанії, як OpenAI, знаходять безліч якісного контенту, створеного користувачами, для навчання своїх AI моделей. Тим не менш, питання ліцензування залишається спірним аспектом. Хоча OpenAI має угоду з Reddit, яка схожа на повідомлену угоду з Google, кажуть, що оцінка ChangeMyView не пов’язана з цією угодою.

Reddit чітко окреслив свою політику стосовно незаконного збору контенту без згоди. CEO Reddit, Steve Huffman, раніше критикував такі компанії, як Microsoft, Anthropic і Perplexity, які обходили переговори з приводу доступу до даних. OpenAI також зіштовхнувся з численними судовими процесами за ймовірне неправомірне використання вебконтенту.

Моральні питання та безпека AI

Одне з найбільших занепокоєнь щодо AI – це здатність переконувати людей. Хоча AI моделі OpenAI, такі як о3-mini, вже продемонстрували свій потенціал, у компанії наголошують, що не переслідують мету створити “гіперпереконливий” інтелект. Основною метою є забезпечення безпеки користувачів і уникнення небезпеки негативного впливу AI.

Чим ближче моделі AI стають до імітації людського міркування, тим більше виникає моральних питань. Проблеми маніпуляції думкою, впливу на політичні погляди, дезінформації можуть стати реальними загрозами.

Заключні думки про майбутнє AI

AI продовжує стрім

Схожі записи