nedelya-loqo xari-bulbul
  • О нас
  • Контакты
  • Pекламы
AZ
nedelya-loqo xari-bulbul
  • Культура
  • В мире
  • Политика
  • Спорт
  • Мир ИТ
  • Общество
  • Интервью
  • Здоровье
  • Экономика
  • Происшествия
  • Военные новости
  • Аналитика
banner
banner
iskusstvennomu-intellektu-predskazali-skoryy-krakh-iz-za-kannibalizma-dannykh

Искусственному интеллекту предсказали скорый крах из-за каннибализма данных

Специалисты из Оксфордского университета предупреждают о том, что увеличение количества контента, созданного с помощью искусственного интеллекта (ИИ), может привести к краху моделей машинного обучения, если отрасль не сможет снизить риски.
Как передает Nedelia.az со ссылкой на "Рамблер", об этом сообщает издание The Register.
Команда исследователей обнаружила, что использование наборов данных, сгенерированных ИИ, для обучения будущих моделей может привести к возникновению тарабарщины, известной как коллапс модели. В качестве примера они приводят модель, которая начала текст о средневековой европейской архитектуре и закончила его бессмысленными рассуждениями о кроликах.
В статье, опубликованной в журнале Nature, авторы под руководством Ильи Шумайлова, сотрудника Google DeepMind и аспиранта Оксфордского университета, отмечают, что ИИ может не замечать менее распространенные строки текста в обучающих наборах данных. Это означает, что последующие модели, обученные на выходе, не могут учесть эти нюансы, что ведет к рекурсивному циклу.
Разработчики языковых моделей уже столкнулись с долгосрочными атаками, такими как фермы кликов, контента и троллей, которые вводят в заблуждение социальные сети и поисковые алгоритмы. Однако масштабы возможного отравления контента значительно возрастут с появлением крупномасштабных языковых моделей (LLMS).
Доцент кафедры электротехники и вычислительной техники Университета Дьюка Эмили Венгер проиллюстрировала коллапс модели на примере системы, генерирующей изображения собак. Если модель будет чрезмерно представлять определенные породы собак, например, золотистых ретриверов, то последующие модели, обучающиеся на основе сгенерированного ИИ набора данных, могут забыть о существовании менее распространенных пород. В результате модель рухнет и станет неспособной генерировать значимый контент.
Один из способов решения этой проблемы – нанесение водяных знаков на контент, созданный с помощью ИИ.
Ранее нейросеть Илона Маска без разрешения пользователей начали обучать на постах в X.

  • 27 июл., 19:10
Səhifəni ziyarət et
Səhifəni ziyarət et
banner
iran-ne-dopustil-inspektorov-oon-na-yadernye-obekty 21 нояб.
12:30

Иран не допустил инспекторов ООН на ядерные объекты

prezident-ilkham-aliev-nagradil-rabotnikov-organov-yustitsii 21 нояб.
12:23

Президент Ильхам Алиев наградил работников органов юстиции

alyona-alieva-podelilas-publikatsiey-ob-aktsii-po-posadke-derevev-v-lyankyarane 21 нояб.
12:20

Алёна Алиева поделилась публикацией об акции по посадке деревьев в Лянкяране

v-milli-medzhlise-predlozhili-osvobodit-ot-nalogov-grazhdan-s-zarplatoy-do-1000-manatov 21 нояб.
12:20

В Милли Меджлисе предложили освободить от налогов граждан с зарплатой до 1000 манатов

prezident-azerbaydzhan-so-dnya-vstupleniya-v-semyu-d-8-prilagaet-usiliya-dlya-razvitiya-etogo-instituta 21 нояб.
12:10

Президент: Азербайджан со дня вступления в семью D-8 прилагает усилия для развития этого института

pobediteley-mezhdunarodnogo-festivalya-turisticheskikh-filmov-nagradyat-v-portugalii 21 нояб.
12:00

Победителей Международного фестиваля туристических фильмов наградят в Португалии

Loading
nedelya-loqo
  • О нас
  • Контакты
  • Pекламы