• A
  • A
  • A
  • АБВ
  • АБВ
  • АБВ
  • А
  • А
  • А
  • А
  • А
Обычная версия сайта

Законы робототехники: как нейросеть поможет вам написать роман

GPT-3 — это языковая модель, которая может генерировать текст, который звучит так, как будто его написал человек. Через платформу OpenAI Playground эту модель можно бесплатно использовать в течение первых трех месяцев. Если вы работаете на английском языке, существует несколько вариантов того, как нейросеть может помочь в написании собственного текста.

Законы робототехники: как нейросеть поможет вам написать роман

ПОВОРОТ СЮЖЕТА

Сгенерируй несколько сюжетных поворотов для фильма ужасов о фермере с большим стадом овец. 
1. Фермер - тайный оборотень и нападает на своих овец, когда наступает полнолуние.
2. Фермер - тайный серийный киллер, он использует овец, чтобы спрятать тела своих жертв. 
3. Фермер - тайный сумасшедший ученый, он использует овец в своих экспериментах. 
4. Фермер - тайный каннибал, он ест овец. 
5. Фермер - тайный вампир, он использует овец, чтобы напиться крови. 


Нейросеть  GPT-3 может сгенерировать несколько поворотов сюжета. На картинке варианты сюжетных твистов, которые нейросеть предложила для фильма ужасов о фермере и стаде овец (текст нейросети выделен зеленым). Не факт, что вам пригодятся предложенные варианты развития событий в вашей книге, однако иногда GPT-3 генерирует достаточно непредсказуемые результаты - а это именно то, что нужно, чтобы дать толчок нашему воображению.


РАССКАЗ

Тоби подошел к дому. Из слегка приоткрытой двери доносился запах каши. Он не смог устоять перед искушением и решил заглянуть внутрь.

"Доброе утро, молодой человек. Заходи. Завтрак готов."

Тоби вошел в дом и сел за стол.

"Я Тоби".

"Я миссис Хиггинс. Я живу здесь со своими двумя сыновьями. В этих краях у нас не так уж много посетителей."

"Я просто проходил мимо. Я направляюсь в следующий город."

"Откуда ты родом?"

"Я из маленькой деревни не слишком далеко отсюда".


GPT-3 умеет писать рассказы: а, точнее, заканчивать рассказ для которого вы написали несколько первых предложений.

На картинке пример текста, написанного с помощью GPT-3 - интересно, что нейросеть предпочла продолжить его именно диалогом. Вы можете сделать что-то подобное, загрузив в GPT-3 несколько предложений и позволив модели закончить рассказ за вас.

Не факт, что рассказ, созданный GPT-3, будет достоин литературной премии, но эта попытка однозначно поможет облегчить писательский кризис. Иногда достаточно прочесть несколько случайных завершений истории, чтобы пробудить собственное воображение.



ИНТЕРПРИТАЦИЯ И ОБЪЯСНЕНИЕ

Обобщи это для ученика 2-го класса.

Когда белый свет проходит через нашу атмосферу, крошечные молекулы воздуха заставляют его "рассеиваться". Рассеяние, вызванное этими крошечными молекулами воздуха (известное как рэлеевское рассеяние), увеличивается с уменьшением длины волны света. Фиолетовый и синий свет имеют самые короткие длины волн, а красный - самые длинные. Следовательно, синий свет рассеивается сильнее, чем красный, и небо днем кажется голубым. Когда Солнце находится низко в небе во время восхода и захода солнца, свету приходится проходить дальше через земную атмосферу. Мы не видим синий свет, потому что он рассеивается, но красный свет рассеивается не очень сильно - поэтому небо кажется красным.

Небо голубое, потому что, когда солнечный свет попадает в атмосферу, синий свет рассеивается сильнее, чем другие цвета. Когда солнце находится низко в небе во время восхода и захода солнца, свету приходится проходить дальше через атмосферу Земли, и синий свет рассеивается, прежде чем он достигает нас. Так что небо выглядит красным.


Если вы хотите сказать то же самое другими совами или стилизовать вашу мысль под определенного героя, то GPT-3 может вам в этом помочь. Например, как на картинке, вы можете попросить языковую модель пересказать научный текст так, как если бы об описанном явлении рассказывал второклассник. 

GPT-3 отлично справляется со сложной информацией и обобщает ее в простой форме - так же это работает и в другом направлении: языковая модель сможет объяснить простую вещь словами ученого, занимающегося именно этой проблемой. 


GPT-3 обучали на 175 миллиардов параметрах или 570 гигабайтах текста. Модель может отвечать на вопросы по прочитанному тексту, разгадывать анаграммы и осуществлять перевод. Ей достаточно от 10 до 100 примеров для обучения. По заявлению разработчиков, может быть использована для решения любых текстовых задач на английском языке.