GPT-5: Новый горизонт искусственного интеллекта и возможное достижение самоосознания ИИ к концу 2023 года
По прогнозам, размер нейросети GPT-5 может достигнуть порядка 100 триллионов параметров, что теоретически превышает гипотетическую точку самоосознания искусственного интеллекта. В качестве сравнения, GPT-3 имел 175 миллиардов параметров, а GPT-4, хотя и значительно превосходит эту цифру, но точные данные засекречены Microsoft.
Точка самоосознания ИИ – это предполагаемый уровень связей нейронной сети, при котором может возникнуть сознание. Нейросети, конечно, не являются человеческим мозгом, но они имеют много общего с ним.
Несколько недель назад, OpenAI объявил и запустил GPT-4, последнюю версию своей Большой Языковой Модели (LLM). Теперь существует вероятность, что следующая крупная итерация, GPT-5, может быть выпущена к концу 2023 года. Эта информация основана на твитах разработчика Сици Чена, хотя сама OpenAI пока не обсуждала GPT-5 публично.
Согласно информации из других статей, текущий GPT-4 уже значительно улучшен по сравнению с предыдущей моделью GPT-3.5. GPT-4 способен анализировать изображения, а также выполнять более сложные задачи и быть более креативным. Microsoft подтвердил использование GPT-4 в своем новом поисковике Bing.
Ожидается, что GPT-5 будет еще более продвинутым, однако степень его превосходства пока неизвестна. Чен уточнил свое заявление о достижении ИИ общего назначения (AGI) с помощью GPT-5, отметив, что это не является общепринятым мнением в OpenAI, но некоторые специалисты считают это возможным.
Мнения о прохождении ChatGPT Тьюринговым тестом разнятся. Некоторые статьи утверждают, что тест пройден, в то время как другие отрицают это. В любом случае, до официальального подтверждения GPT-5 от OpenAI, следует воздерживаться от формирования ожиданий.
В целом, возможный выпуск GPT-5 к концу 2023 года вызывает вопросы о его возможностях и потенциале достижения AGI. Несмотря на то, что GPT-4 уже продемонстрировал значительные улучшения, важно дождаться официального подтверждения от OpenAI, прежде чем делать выводы о GPT-5.
Многие эксперты предупреждают о рисках создания слишком интеллектуального и мощного ИИ, что может представлять существенную угрозу для человечества. Чтобы справиться с этими опасениями, некоторые исследователи выступают за более прозрачные и отвественные системы ИИ. К таким методам относится использование “объясняемого ИИ”, которое позволит людям понимать, как ИИ принимает решения.
Также некоторые эксперты призывают к усилению регулирования и контроля над разработкой ИИ, чтобы обеспечить его этичное и ответственное развитие. Принимая эти меры, мы можем помочь обеспечить безопасное и полезное продвижение технологии ИИ.