XX2 век
2.14K subscribers
3.76K photos
17 videos
4.2K links
Официальный канал журнала «XX2 век» http://22century.ru
Download Telegram
Лечение болезни Паркинсона: ДВФУ приглашает добровольцев для испытания противотреморного нейростимулятора

Ученые и врачи Дальневосточного федерального университета (ДВФУ) набирают добровольцев с болезнью Паркинсона и эссенциальным тремором для проведения испытания противотреморного неинвазивного нейростимулятора.

Биоинженеры разработали прототип устройства на базе Лаборатории по экспериментальной и трансляционной медицине. Подать заявку на тестирование можно по ссылке: https://forms.gle/Kgdw1QrD5Hpz6YKv5.

Ученые ДВФУ собрали прототип противотреморного устройства.

Плюсы этого стимулятора в том, что его датчики крепят на руку, а импульсы передаются через кожу. Это позволяет подавить тремор без хирургического вмешательства. Само устройство будет закреплено на предплечье и ощущаться примерно как телефон при пробежке.

Разработчики отмечают, что через два года устройство будет уменьшено до размеров наручных часов, но для этого им нужно провести испытания.

Принять участие в тестировании нейростимулятора могут пациенты с болезнью Паркинсона и эссенциальным тремором любых возрастов. Для этого необходимо заполнить анкету, а все дополнительные вопросы можно напрямую уточнить у ведущего нейрохирурга Медицинского комплекса ДВФУ Артура Биктимирова в телеграме: https://t.me/Neurosurgeon_vl.
Forwarded from RnD CV Team (Alexander Kapitanov)
Всем привет! 7 сентября мы выступим на Practical ML Conf от Яндекса с докладом “Deaf lives matter: распознавание русского жестового языка”.

Мы расскажем об особенностях русского жестового языка🧏‍♀️, о том, как мы собирали Slovo, первый большой открытый датасет РЖЯ на 1000 слов, как мы учили трансформеры понимать жестовую речь 👐, а также поговорим о том, какие есть продуктовые применения для сервисов сурдоперевода!🦻

Приходите, будем рады встретиться на конференции! 🎉
А знаете, какая нейросеть сейчас самая большая по числу параметров? Да, в 2023 году мы все знаем, что с точки зрения способностей модели важно не только число параметров, но и то, как долго и на чём именно модель учили. И что сравнительно скромные модели могут легко обходить по метрикам более крупные. Например Qwen-7B с 7 млрд параметров, которая видела при обучении 2,2 млрд токенов (словарь у неё размером >150K, так что токены ещё и длинные в среднем), на MMLU обходит, скажем, LLAMA 2 с 13 млрд параметров. Это мы всё понимаем, но всё же?
С монолитными сетками всё просто — лидер не менялся уже довольно давно. Это Megatron-Turing NLG с 530 млрд параметров.
А что там в мире MoE? Помните шум, которые понаделали Switch-трансформеры, перешагнувшие через 1 трлн параметров? Кто-то слышал про M6-10T от Alibaba, но в целом появление модели с 10 трлн параметров прошло почти незаметно. А что дальше?
Так вот. В апреле 2022 года группа китайских исследователей из DAMO, Университета Синьхуа, Пекинской академии искусственного интеллекта и Лаборатории Чжэцзян (之江实验室) (Научно-исследовательского учреждения, созданного совместно правительством провинции Чжэцзян, Чжэцзянским университетом и Alibaba Group) сообщила о создании MoE-модели MoDa-174T (от MoE и Data — название отсылает к гибридной стратегии параллелизма MoE и данных) со 173,9 трлн параметров, в состав которой входят целых 96000 сетей-экспертов. Для обучения модели использовался фреймворк BaGuaLu и суперкомпьютер Sunway последнего поколения.
BaGuaLu (八卦炉) — печь восьми триграмм (восьми гуа), волшебная печь из древнекитайской мифологии, позволяющая создавать эффективные лекарства. Восемь триграмм гуа используются в даосской космологии, чтобы представить фундаментальные принципы бытия. Модель обучали на самом большом китайском мультимодальном датасете M6-Corpus, содержащем 1,9Тб изображений и 292Гб текстов.
К сожалению, авторы не приводят информации о результатах решения моделью различных тестовых задач, поэтому о способностях MoDa-174T мы пока что можем лишь догадываться.
Forwarded from GigaChat
GigaChat теперь в Telegram!

Повашиммногочисленнымзапросам...

Нейросетевая модель GigaChat теперь доступна всем желающим прямо в Telegram-боте! Просто откройте его, нажмите «Начать» и вступайте в диалог. Сбер ID для активации не нужен 😉

Способность генерировать изображения с помощью нейросети Kandinsky также перекочевала в наш бот!

Пообщаться с GigaChat можно по ссылке 🤗
Forwarded from Kandinsky 2.2 VIP
Изображение было сгенерировано по запросу "The Giant Pikachu of Kandahar circa 1902, black and white photo", стиль: 4k
Forwarded from Complete AI (Andrey Kuznetsov)
🏆Сегодня мы официально запускаем новый AIJ Contest, в котором заявлено 5 крутых задач с общим призовым фондом 11+ млн. рублей!!!

1) Strong Intelligence — создать мультимодальную модель, которая обыгрывает знатоков интеллектуальных викторин и показывает суперуровень эрудиции

2) Unique RecSys — обучить ИИ-алгоритм подбирать наиболее релевантный контент

3) Personal AI — создать человекоцентричного ИИ-помощника

4) Equal AI — сделать сервисы доступными каждому — обучить модель распознавать русский жестовый язык по видео

5) Rescue AI — разработать новый способ расшифровки генома

Обо всех задачах подробно можно прочитать здесь

Первая же задача Strong Intelligence (самая сложная и на повестке современных мультимодальных исследований) разрабатывалась нашей командой AIRI + Sber AI — очень хочется получить много интересных крутых решений. Готов отвечать на вопросы, если будут возникать!

Скоро откроем гитхаб и в ближайшее время проведём вебинар, где расскажем подробно про задачи и ответим на возникающие вопросы, а пока желаю всем продуктивного погружения в контекст задач🦾

Следите за информацией)
https://awards.highload.ru/vote

Открытое голосование за номинантов на премию HighLoad++
Тут можно проголосовать за GigaChat, Kandinsky и даже просто за меня :)
У каждого есть три голоса, распорядитесь ими мудро!)))