
Примерно в середине 1900-х годов началась космическая гонка, а к середине 2020-х мы оказались в самом центре соревнования в области искусственного интеллекта. Никто не бездействует, поскольку организации из разных уголков мира активно стремятся к следующим революционным открытиям.
Пока крипто-инвесторы ловят иксы и ликвидации, мы тут скучно изучаем отчетность и ждем дивиденды. Если тебе близка эта скука, добро пожаловать.
Купить акции "голубых фишек"Китайские исследователи недавно объявили о разработке новой, высокоразвитой языковой модели под названием SpikingBrain1.0. В отличие от типичных языковых моделей, утверждается, что эта модель до 100 раз быстрее существующих моделей, таких как те, которые используются в ChatGPT и Copilot. Это новаторское достижение в области технологий искусственного интеллекта вызвало значительный интерес в научном сообществе.
Уникальная функциональность модели выделяет её, знаменуя собой новый подход, отличающийся от существующих моделей. Часто называемый новаторским ‘LLM, вдохновлённым нейронными сетями’, давайте разберёмся, что означает этот термин: Для ясности, вот некоторая информация о том, как функционируют обычные LLM.

Позвольте мне попытаться объяснить это более простым способом:
Современные языковые модели, часто называемые LLM, анализируют все предложение одновременно. Их задача — выявить закономерности и понять взаимосвязи между отдельными словами, независимо от их конкретного порядка в предложении.
В нем используется метод, известный как Внимание. Возьмите, к примеру, предложение вроде этого:
Бейсболист замахнулся битой и выбил хоум-ран.
Человек быстро понимает контекст предложения, поскольку его разум связывает слова, такие как ‘бейсбол’, с последующими без особых раздумий. С другой стороны, большая языковая модель может не различать бейсбольную биту и млекопитающее, известное как летучая мышь, основываясь только на слове ‘летучая мышь’. Только путем рассмотрения остальной части предложения она может точно различать значения.
Как аналитик языка, я сосредотачиваюсь на тщательном изучении целых предложений, чтобы понять их смысл. Для этого я устанавливаю связи между компонентами предложения, выявляя ключевые термины, такие как ‘раскачался’ и ‘игрок в бейсбол’. Понимая эти элементы, я могу точно определить значение, что в конечном итоге приводит к более точным прогнозам в моем анализе.
Обучающие данные для большой языковой модели включают случаи, когда слова ‘бейсбол’ и ‘бита’ часто встречаются вместе.

Обработка целых предложений сразу может быть ресурсоемкой, особенно для больших объемов входных данных. По мере увеличения объема данных, возрастает и потребность в ресурсах для понимания. Это частично объясняет, почему большинство современных языковых моделей требуют значительной вычислительной мощности. По сути, каждое слово сравнивается с каждым другим словом, что требует большого количества ресурсов.
SpikingBrain1.0 утверждает, что он эмулирует метод работы человеческого мозга, сосредотачиваясь на релевантных словах в предложении, подобно тому, как мы понимаем контекст предложения. В отличие от постоянной работы всего человеческого мозга, эта модель работает эффективно, активируя только необходимые нервные клетки по мере необходимости.
Как энтузиаст, я не могу не радоваться новой модели, которая обещает значительные улучшения! Это чудо техники, по словам ее разработчиков, должно увеличить эффективность в 100 раз по сравнению с существующими языковыми моделями (LLM). В отличие от чего-то вроде ChatGPT, эта модель разработана для выборочной реакции на входные данные, что, в свою очередь, снижает ее потребность в ресурсах для работы.
Как указано в исследовательской работе:
Используя этот метод, мы можем проводить непрерывное обучение, используя лишь небольшую часть данных (менее 2%), и при этом достигать производительности, сравнимой с известными моделями с открытым исходным кодом.
Как любитель технологий, я нахожу захватывающим тот факт, что эта модель не зависит исключительно от графических процессоров NVIDIA для своей вычислительной мощности. Вместо этого она успешно прошла тестирование с использованием разработанного компанией MetaX чипа из Китая.

Как любитель технологий, я вижу множество факторов, которые стоит обдумать, но теоретически, SpikingBrain1.0 может стать значительным шагом вперед в эволюции больших языковых моделей. Потенциальное влияние искусственного интеллекта на нашу окружающую среду неоспоримо, при этом огромное потребление энергии и столь же масштабные потребности в охлаждении этих гигантских центров обработки данных являются серьезными проблемами.
Запуск больших языковых моделей (БЯМ) на Ollama дома с RTX 5090 уже значительно нагревает мой дом, поскольку эта видеокарта потребляет почти 600 Вт и не отличается высокой энергоэффективностью. Если масштабировать это до дата-центра, заполненного аналогичными графическими процессорами, то производство тепла и потребление энергии, вероятно, станут неуправляемыми и неэффективными в гораздо большем масштабе.
Это новое достижение кажется многообещающим, при условии, что это действительно правда. Если оно обеспечит и точность, и эффективность, это может стать значительным шагом вперед. Определенно, впереди нас ждут захватывающие времена!
Смотрите также
- Прогноз курса евро к йене на 2025 год
- Аналитический обзор рынка (15.12.2025 16:32)
- Лучшие смартфоны. Что купить на Новый Год. Идеи для подарка в декабре 2025.
- Doogee S99 ОБЗОР: быстрый сенсор отпечатков, большой аккумулятор, лёгкий
- Аналитический обзор рынка (12.12.2025 14:32)
- Неважно, на что вы фотографируете!
- Мои топ-17 функций Windows 11, представленных в 2025 году — личный выбор от более чистого пользовательского интерфейса до крупных обновлений для PC-гейминга.
- Какие аккумуляторы лучше
- Прогноз курса юаня к рублю на 2025 год
- ZTE Blade A76 4G ОБЗОР
2025-09-12 15:09