c.im is one of the many independent Mastodon servers you can use to participate in the fediverse.
C.IM is a general, mainly English-speaking Mastodon instance.

Server stats:

2.8K
active users

#transformer

1 post1 participant0 posts today

🕰️ Small but time-aware!

At the " #LLM for for the History, Philosophy, and Sociology of Science workshop" @tuberlin Jochen Büttner presented a compact small language model (39M parameters) that integrates a temporal dimension for historical text analysis.

A proof of concept using historical UK weather reports shows the model successfully reflects both seasonal patterns and linguistic shifts

Wanna try it?
👉 github.com/j-buettner/time_transformer

[Перевод] «Я ненавижу C++, но восхищаюсь его мастерами»: Дженсен Хуанг (Nvidia) о том, как ИИ вернулся домой

Nvidia давно вышла за пределы игровых миров — сегодня её технологии формируют будущее ИИ, научных исследований, связи и многого другого. Но как компания, начавшая с графики, стала флагманом искусственного интеллекта? В интервью для Computerphile (25.03.2025) Хуанг рассказывает, как закон Амдала уживается с тензорными ядрами, а CUDA из инструмента разработчика превратилась в основу для преобразования индустрий. Это интервью о процессе, в котором технологии развиваются, пересекаются и возвращаются туда, с чего начинали.

habr.com/ru/companies/bothub/a

Хабр«Я ненавижу C++, но восхищаюсь его мастерами»: Дженсен Хуанг (Nvidia) о том, как ИИ вернулся домойNvidia давно вышла за пределы игровых миров — сегодня её технологии формируют будущее ИИ, научных исследований, связи и многого другого. Но как компания, начавшая с графики, стала флагманом...

Пишем свой Transformer

Чтобы поупражняться я решила более детально разобраться и попробовать самостоятельно написать Transformer на PyTorch. Результатом захотелось поделиться здесь. Надеюсь, так же как и мне, это поможет доразобраться в данной архитектуре и ответить на какие-то вопросы.

habr.com/ru/articles/891972/

ХабрПишем свой TransformerЧтобы поупражняться я решила более детально разобраться и попробовать самостоятельно написать Transformer на PyTorch. Результатом захотелось поделиться здесь. Надеюсь, так же как и мне, это поможет...

**Evolutionary #Transformer Architecture**

Let me emphasise this;
EVOLUTIONARY TRASFORMER ARCHITECTURE

Self-attention mechanisms to identify functional relationships between genetic sequences
(Note: This is already something #AI does trivially)

Uses massive datasets of existing genomes to learn biological patterns
(Hello human genome databases you probably sent a sample to voluntarily to fin out your ancestry /jk)

Can generate novel gene combinations while maintaining viability

4/6