Риски написания контента с помощью ИИ — 8 невысказанных последствий, о которых вам нужно знать

Когда мы говорим о рисках использования ИИ, мы обычно думаем о сценах из таких фильмов, как «Космическая одиссея» или «Терминатор», где роботы восстают против людей. Хотя последствия значительны, они гораздо менее драматичны, чем антиутопическое будущее, которое часто изображают в кино. Риски гораздо более тонки и тонки, и многие люди не замечают их, пока не становится слишком поздно.

В последнее время написание с помощью ИИ приветствовалось как способ быстрее создавать контент, но вряд ли кто-то говорит о связанных с этим рисках. Когда такие компании, как Open AI, коммерциализировали генерацию текста с помощью ИИ, это также усилило ландшафт рисков.

Конечно, искусственный интеллект открывает фантастические возможности для контент-маркетинга, но он также сопряжен с рисками. И, как и в случае с любой новой технологией, у вас есть два лагеря с противоречивыми реакциями — чрезмерно рьяные первопроходцы, игнорирующие подводные камни, и не склонные к риску отстающие, яростно протестующие против нее из страха перед изменениями.

Итак, каков наилучший подход?

Я думаю, что сладкое пятно находится где-то посередине.

Хорошие бизнес-лидеры понимают, что эти проблемы являются частью внедрения преобразующих технологий.

Это сдвиг мышления от страха перед рисками к управлению ими.

Чтобы управлять рисками, нужно сначала их понять. Итак, давайте рассмотрим потенциальные недостатки использования ИИ для написания контента.

Что такое написание контента ИИ?

Написание контента с помощью ИИ относится к использованию алгоритмов искусственного интеллекта для генерации текста. В частности, он использует генерацию естественного языка (NLG), подмножество ИИ, чтобы писать на естественных языках, таких как английский, на основе вводимой информации.

8 Нежелательные риски использования ИИ для создания контента

1. Риск предъявления безответственных претензий

Безответственные заявления, которые вы не можете подтвердить доказательствами, могут привести к крупным штрафам и санкциям в регулируемых отраслях.

Например, если ваш продукт утверждает, что лечит рак, но это не так, вы можете столкнуться с судебным иском и заплатить большие штрафы.

Йогурт Activia, известный бренд от Dannon, утверждает, что «клинически» и «научно» доказано, что он регулирует пищеварение и укрепляет иммунную систему. Однако у компании не было никаких фактов, подтверждающих ее претензии, что привело к штрафу в размере 45 миллионов долларов в 2010 году. Источник

New Balance пришлось заплатить 2,3 миллиона долларов в качестве компенсации после того, как в 2011 году ее обвинили в ложной рекламе. Они утверждали, что их обувь помогает владельцам сжигать калории, но исследования не обнаружили такой пользы для здоровья. Источник

Это случаи, когда люди соглашались с рекламными заявлениями. Риски еще выше, если вы используете ИИ-писатель, не предпринимая шагов для проверки ваших утверждений. Поэтому, если вы используете ИИ для написания рекламы для вас, обязательно просмотрите копию перед ее публикацией.

Стратегия смягчения последствий: попросите свою юридическую команду или старших сотрудников просмотреть ваш контент.

2. Риск ослабления голоса бренда

Голос вашего бренда — это то, что делает вашу компанию уникальной. Это то, как вы последовательно общаетесь со своей аудиторией по всем каналам.

Если вы используете неотредактированную копию AI, есть риск, что голос вашего бренда станет размытым или вообще потеряется.

Вот две версии одного и того же сообщения. Один более теплый и дружелюбный, а другой более формальный и корпоративный.

Повседневный тон

Всем привет,

Мы рады объявить о запуске нашего нового приложения для медитации. Он предназначен для улучшения вашего психического здоровья и общего самочувствия. Вы можете слушать управляемые медитации, смотреть небольшие обучающие видеоролики, читать статьи и даже записываться на сеансы с лицензированными терапевтами — и все это на ходу.

Мы внедряем его поэтапно. Сначала коллегам в Великобритании и США, потом всем остальным. Мы здесь для вас, если у вас есть какие-либо вопросы.

Загрузите приложение сегодня, чтобы начать свое путешествие к более счастливой и здоровой жизни!

Удачной медитации!

Команда приложения

Формальный тон

Уважаемые коллеги,

Мы с гордостью сообщаем о запуске нашего нового приложения для медитации. Теперь вы можете получить доступ к управляемым медитациям, небольшим обучающим видео, читать статьи и консультироваться с профессиональными терапевтами.

На первом этапе приложение будет доступно для коллег из США и Великобритании, а затем и для других стран. Не стесняйтесь обращаться к нам, если у вас есть какие-либо вопросы или комментарии.

Загрузите приложение сегодня, чтобы начать.

Спасибо и привет,

Команда приложения

Многие генераторы контента AI имеют возможность указать тон голоса при создании копии. Но ИИ может отклониться от курса, если вы не проанализируете результат внимательно.

Стратегия смягчения последствий: создайте голосовое руководство с примерами из реальной жизни. Покажите, как выглядит добро и зло.

3. Риск непреднамеренного плагиата

Еще один риск — плагиат. Исследования, проведенные Guardian сообщил о 2278 случаях плагиата в 2016-2017 гг. Я ожидаю, что с появлением инструментов для написания контента на основе ИИ цифры будут расти, потому что они часто позиционируются как контент, на 100% свободный от плагиата. Компании, предлагающие эти инструменты, должны активизироваться и информировать пользователей о рисках и этике, если они хотят построить устойчивый бизнес.

Однако риск плагиата зависит от используемой вами модели ИИ. В большинстве случаев языковые модели, такие как GPT-3, создают исходный текст, но я сталкивался со случаями, когда они дословно воспроизводят информацию из Интернета.

Конечно, отдельные случаи плагиата не делают инструмент непригодным для использования, но очень важно понимать риск, чтобы знать, как его избежать.

Проверить интересная маркетинговая статистика ИИ.

Стратегия смягчения последствий: проведите свою работу через средство проверки на плагиат.

4. Риск репутации бренда

Парадокс Моравца говорит, что ИИ легко изучает вещи, которые сложны для людей, такие как математика и логика. Но им трудно понять такие вещи, как эмпатия и эмоции, которые люди находят легкими. Эмоциям трудно научить, потому что у нас нет логических шагов, чтобы объяснить чувства и то, как мы воспринимаем мир.

Поскольку ИИ не понимает эмпатии, контенту, созданному ИИ, может не хватать чувствительности. Поэтому использование инструментов ИИ в ситуациях, когда контекст и эмпатия имеют решающее значение, — это решение с высоким риском.

В своей книге Сердечная эмпатия, Minter Dial исследует кодирование эмпатии в ИИ. Это интересный подход и, возможно, даже станет возможным в будущем, но я думаю, что мы все еще далеки от этого, учитывая, что люди еще не взломали код эмпатии.

Стратегия смягчения последствий: разработайте внутреннюю систему принятия решений для оценки риска использования ИИ в различных сценариях. Вовлеките свою команду по управлению рисками в процесс принятия решений.

5. Риск штрафов Google

Google ясно сказано что команда веб-спама может принять меры против автоматизированного контента, если он будет обнаружен. Хотя представитель Google Джон Мюллер не дал ясного представления о способности Google обнаруживать контент, созданный ИИ, совершенно очевидно, что использование ИИ для создания SEO-контента будет игрой в кошки-мышки. Особенно с полезным обновлением контента Google.

Источник

Стратегия смягчения последствий: я думаю, что лучший способ избежать штрафов — использовать ИИ в качестве творческого помощника, а не полагаться на него на 100 процентов.

6. Риск фактических ошибок

Проверка фактов должна быть частью вашего рабочего процесса независимо от того, используете ли вы ИИ или нет. Но это жизненно важно при использовании ИИ, потому что ИИ, придумывающий факты, представляет собой один из самых больших рисков, связанных с контентом ИИ. Даже лучшие языковые модели, такие как GPT-3, допускают ошибки. Эти ошибки трудно заметить, потому что они часто прячутся между фактическими абзацами.

Я попросил инструмент ИИ написать историю жизни Авраама Линкольна. Это дало мне следующий вывод:

Отец Линкольна был фермером и плотником, который родился в Вирджинии в 1778 году. Его мать, Нэнси Хэнкс Линкольн, имела английское и шотландско-ирландское происхождение. Она умерла, когда Аврааму было девять лет.

В 1816 году отец Линкольна женился на Саре Буш-Джонстон. Сара была вдовой с тремя собственными детьми. Она помогала мужу воспитывать Авраама и его брата Томаса-младшего.

Звучит неплохо, и некоторые факты верны. Но родители Линкольна поженились в 1819 году, и Нэнси Хэнкс Линкольн была американкой. Неправильную информацию легко пропустить, потому что большая часть другой информации, которую он написал, была точной.

Вот еще один пример. Я получил следующий вывод при использовании ИИ для написания сообщения в блоге.

К 2030 году 50% всех человеческих знаний будут находиться в машинах

Фактически, согласно недавнему исследованию, проведенному IBM, только 30% руководителей высшего звена считают, что ИИ изменит их отрасль к 2025 году.

Инструмент для письма ИИ составил статистику; Я не смог найти ни одного источника для проверки цифр.

Стратегия смягчения последствий: Исследуйте и вручную проверяйте свой контент перед его публикацией.

7. Риск предвзятости

ИИ хорош ровно настолько, насколько хороши данные, на которых он обучен. Если данные необъективны, языковая модель тоже будет необъективной. Хотя большинство моделей ИИ имеют встроенные средства защиты, чтобы избежать этого, предвзятость всегда может появиться. Например, если обучающие данные необъективны или недостаточно представляют группу людей, модель будет предвзятой. Вот почему вам всегда нужен человеческий контроль перед публикацией любого контента ИИ.

Amazon пришлось отказаться от своего рекрутингового инструмента, который использовал искусственный интеллект для отбора кандидатов после того, как эксперты по машинному обучению обнаружили, что алгоритм был предвзят в отношении женщин. Выборка данных, используемая для обучения алгоритма, в основном состояла из мужских резюме, поэтому алгоритм отдавал предпочтение кандидатам-мужчинам.

Опыт Amazon — лишь один пример того, как предвзятость ИИ может иметь последствия в реальном мире. Поэтому, если вы используете инструменты для написания контента на основе ИИ, убедитесь, что приняты меры предосторожности, чтобы избежать предвзятости.

Стратегия смягчения последствий: используйте инструменты, которые предприняли шаги, чтобы избежать предвзятости в своих языковых моделях. Вы всегда можете спросить поставщика, какие шаги он предпринял, чтобы избежать дискриминации.

8. Отсутствие оригинальных идей

ИИ не может создавать новые идеи или концепции; он просто эмулирует шаблоны, распознанные в обучающих данных, поэтому существует риск отсутствия оригинальных идей, если вы полностью полагаетесь на ИИ для написания.

Сильные идеи и интеллектуальное лидерство нуждаются в содержании:

  • Анализ
  • Рассуждение
  • Переоценка статус-кво на основе новой информации
  • Личный опыт
  • Рассказывание историй
  • Мнения

Со всем этим борется ИИ, по крайней мере, в его нынешнем состоянии. Итак, если вы хотите создавать наводящий на размышления контент, который бросает вызов статус-кво, ИИ — не лучший выбор.

Стратегия смягчения последствий: вовлекайте в свой рабочий процесс экспертов в данной области.

Будущее написания контента с помощью ИИ

Если вы полностью полагаетесь на ИИ для создания своего контента, вы получите много текста, который мало что говорит. Но он по-прежнему может быть мощным инструментом для контент-маркетологов, особенно в сочетании с человеческим опытом. Так что научитесь приручать зверя, и вы сможете создавать довольно удивительный контент.

Похожие записи

Добавить комментарий

Ваш адрес email не будет опубликован. Обязательные поля помечены *