"Дезинформации и кибератаки": создатель нейросети ChatGPT боится собственного изобретения
"Дезинформации и кибератаки": создатель нейросети ChatGPT боится собственного изобретения

"Дезинформации и кибератаки": создатель нейросети ChatGPT боится собственного изобретения

По словам Сэма Альтмана, правительственные регуляторы должны не допустить опасных последствий для человечества от таких языковых моделей. ChatGPT правильно отвечает на 90% вопросов адвокатского экзамена и практически не ошибается во время школьного теста по математике.

Related video

Сэм Альтман, гендиректор компании OpenAI, разработавшей приложение на основе ИИ ChatGPT, предупредил об опасности технологий, которые меняют общество. Об этом сообщает ABC News.

37-летний Альтман подчеркнул, что правительственные регуляторы и общество должны совместными усилиями не допустить потенциально опасных последствий для человечества.

"Нам с этим следует быть осторожными <…> Меня в особенности беспокоит то, что подобные модели могут использоваться для масштабной дезинформации, — отметил Альтман. — Теперь они лучше пишут компьютерный код и могут применяться в кибератаках".

Несмотря на все риски, ChatGPT может стать "величайшей технологией", которую пока что человечеству удалось разработать, считает он.

Интервью Сэма Альтмана

Такое предупреждение одного из авторов этой технологии прозвучало после того, как OpenAI представила новейшую версию языковой модели ИИ GPT-4, спустя меньше четырех месяцев после выхода ее первой версии, которая стала самым быстро развивающимся потребительским приложением в истории.

В интервью представитель OpenAI отметил, что разработка не идеальна, но вместе с тем в ходе тестирования она ответила правильно на 90% вопросов для адвокатского экзамена. И практически не допустила ошибок во время школьного теста по математике. Более того, ИИ может писать коды практически на всех языках программирования.

Большинство опасений, связанных с развитием сферы искусственного интеллекта, сводятся к тому, что ИИ полностью заменят человека. Однако Альтман уверяет, что система полностью подконтрольна человеку.

"ИИ ждет, чтобы кто-то дал вводные. Это инструмент, который контролируется человеком", — пояснил он, добавив, что весь вопрос в том, кто им управляет.

"Будут и другие люди, которые не придерживаются ограничений, которых придерживаемся мы. Думаю, обществу не хватает времени, чтобы понять, как с этим быть, как его регулировать", — пояснил он.

Напомним, что чат-ботChatGPT прошел капчу, сказавшись слепым и наняв фрилансера. ИИ впервые предложил реальному человеку помочь действовать в обход мер безопасности в Интернете.

РанееФокус сообщал, чтоMicrosoft встроила ИИ ChatGPT-4 в офисные продукты. В Microsoft 365 Copilot нейросеть используется для любых офисных задач Office.

Джерело матеріала
loader
loader