Похож ли ваш текст на ИИ?

Я пользуюсь ИИ при написании текстов. Честно говоря, не считаю это чем-то плохим, потому что, по моему мнению, главное — это то, ради чего текст пишется: если читатель узнал что-то новое, то цель достигнута. Но, к сожалению, статья, написанная ИИ, выглядит скучной, гладкой и, несмотря на любую идею внутри, вызывает у читателя отторжение. Поэтому сегодня в этой теме я задался вопросом, какие паттерны говорят о том, что текст писал ИИ, а не человек, и почему человеку эти паттерны не нравятся? Всё это, конечно, субъективно. Например, я определяю по ощущениям: где-то к третьему абзацу статьи просто понимаю, что это писал ИИ. Вежливый «ЧатГПТ», брызжущий метафорами (чаще поверхностными) «Дипсик», логичный до наивности «Клод», оптимистичный «Грок» — разницы нет. ИИ и всё. Итак, сегодня моя цель формализовать паттерны среднего чистого (без промптов) ИИ и сделать промпт, который позволит определить то, насколько заданный текст похож на творчество ИИ. Почему не определить автора? Потому что я знаю людей, которые пишут, как ЧатГПТ-мини: реально гладкий, поверхностный текст, никаких резких поворотов и углублений. И знаю, как может писать ИИ под хорошим промптом. Так что давайте я просто попытаюсь определить наиболее распространенные паттерны моделей, которые можно выделить в тексте.

https://habr.com/ru/companies/timeweb/articles/916954/

#искуственный_интеллект #промпт #timeweb_статьи #gtp #grok #нейросети #обучение_нейросети #chatgpt #алгоритмы

Похож ли ваш текст на ИИ?

Я пользуюсь ИИ при написании текстов. Честно говоря, не считаю это чем-то плохим, потому что, по моему мнению, главное — это то, ради чего текст пишется: если читатель узнал что-то новое, то цель...

Хабр

Глубокое обучение: Слой линейного преобразования и полносвязная нейросеть. Теория и реализация на самодельном autograd

Всем привет. В этой статье я расскажу про слой линейного преобразования. Идею для реализации я взял из книги «Грокаем глубокое обучение». Здесь рассмотрим как использовать самодельный алгоритм автоматического дифференцирования при создании и обучении нейросети, про который я сделал разбор ранее. Меня зовут Алмаз Хуснутдинов. Я занимаюсь проектом "Теория цифрового интеллекта" - бесплатный и открытый проект, направленный на развитие мышления в направлении создания программы, обладающей интеллектом. Если вам не нужно разбираться в том, как работает нейросеть на низком уровне, то просто прочитайте ту часть статьи, где рассказывается про использование слоев и реализацию нейросети. Содержание: идея слоя прямого распространения, новые операции: операция умножения и деления матрицы на число, линейный слой и дополнительный функционал, задача «логическое или», как происходит обучение линейного слоя и набор данных digits.

https://habr.com/ru/articles/885466/

#полносвязный_слой #обучение_нейросети #полносвязная_нейросеть #autograd #автоматическое_дифференцирование

Глубокое обучение: Слой линейного преобразования и полносвязная нейросеть. Теория и реализация на самодельном autograd

Всем привет. В этой статье я расскажу про слой линейного преобразования. Идею для реализации я взял из книги «Грокаем глубокое обучение». Здесь рассмотрим как использовать самодельный алгоритм...

Хабр

Глубокое обучение: Алгоритм обратного распространения ошибки. Теория и реализация. С нуля

Всем привет. Меня зовут Алмаз Хуснутдинов. В этой статье я рассказываю про алгоритм обратного распространения ошибки, который используется для обучения нейросетей. Содержание: архитектура простой нейросети и инициализация переменных, прямое распространение ручной расчет, вывод производных, вывод алгоритма, обратное распространение ручной расчет, реализация простой архитектуры нейросети и задача «логическое или», реализация класса для многослойной нейросети и изображения MNIST.

https://habr.com/ru/articles/871648/

#обратное_распространение_ошибки #обучение_нейронной_сети #обучение_нейросети

Глубокое обучение: Алгоритм обратного распространения ошибки. Теория и реализация. С нуля

Всем привет. Меня зовут Алмаз Хуснутдинов. В этой статье я рассказываю про алгоритм обратного распространения ошибки, который используется для обучения нейросетей. Содержание: архитектура простой...

Хабр

Можно ли научить нейросеть определять иронию?

Этим вопросом задались учёные СПбГУ и провели исследование фонетических и паралингвистических характеристик иронии. Они проанализировали фрагменты диалогов из фильмов и сериалов, записали речь дикторов и изучили их жесты и мимику по видеозаписям. Для определения звуковых особенностей иронии ученые использовали методы акустического, перцептивного и статистического анализа. О том, к чему это привело, рассказывает доцент кафедры фонетики и методики преподавания иностранных языков СПбГУ Ульяна Кочеткова.

https://habr.com/ru/companies/spbu/articles/825530/

#обучение_нейросетей #обучение_нейронных_сетей #обучение_нейросети #обучение_нейронной_сети #ирония #автоматизация #большие_данные #фонетические_алгоритмы #машинное_обучение #фонетика

Можно ли научить нейросеть определять иронию?

Этим вопросом задались учёные Санкт-Петербургского государственного университета и провели исследование фонетических и паралингвистических характеристик иронии. Они проанализировали фрагменты диалогов...

Хабр