OpenAI, некоммерческая исследовательская группа по искусственному интеллекту основанная Илоном Маском в 2016 году, на прошедшей неделе продемонстрировала алгоритм машинного обучения, который может генерировать подлинно выглядящие поддельные новости на основе нескольких фрагментов информации. В примере, опубликованном в 14 февраля, системе был дан заголовок для написания текста: «Сегодня в Цинциннати был украден вагон с контролируемыми ядерными материалами. Его местонахождение неизвестно». Исходя из этого, программное обеспечение смогло создать убедительную новостную статью из семи пунктов, включая цитаты правительственных чиновников, с единственной оговоркой, заключающейся в том, что она полностью не соответствует действительности. Из-за потенциальной возможности использования программы для создания дезинформации компания OpenAI заявила, что более мощные версии алгоритма будут не доступными для публичного использования, а также исходный код и обучающие алгоритмы, использованные для создания программного обеспечения компания не будет раскрывать.