AI_MACHINELEARNING_BIG_DATA Telegram 6987
🌟 EuroBERT: энкодСры Π½ΠΎΠ²ΠΎΠ³ΠΎ поколСния.

Π˜ΡΡΠ»Π΅Π΄ΠΎΠ²Π°Ρ‚Π΅Π»ΡŒΡΠΊΠ°Ρ Π³Ρ€ΡƒΠΏΠΏΠ° ΠΏΠΎΠ΄ ΠΏΠ°Ρ‚Ρ€ΠΎΠ½Π°ΠΆΠ΅ΠΌ Centrale SupΓ©lec (УнивСрситСт ΠŸΠ°Ρ€ΠΈΠΆ-Π‘Π°ΠΊΠ»Π΅) выпустила Π² ΠΎΡ‚ΠΊΡ€Ρ‹Ρ‚Ρ‹ΠΉ доступ EuroBERT β€” сСмСйство ΠΌΡƒΠ»ΡŒΡ‚ΠΈΡΠ·Ρ‹Ρ‡Π½Ρ‹Ρ… энкодСров, ΠΎΠ±ΡƒΡ‡Π΅Π½Π½Ρ‹Ρ… Π½Π° 5 Ρ‚Ρ€Π»Π½. Ρ‚ΠΎΠΊΠ΅Π½ΠΎΠ² ΠΈΠ· 15 языков, Π²ΠΊΠ»ΡŽΡ‡Π°Ρ русский.

EuroBERT сочСтаСт ΠΈΠ½Π½ΠΎΠ²Π°Ρ†ΠΈΠΎΠ½Π½ΡƒΡŽ Π°Ρ€Ρ…ΠΈΡ‚Π΅ΠΊΡ‚ΡƒΡ€Ρƒ с ΠΏΠΎΠ΄Π΄Π΅Ρ€ΠΆΠΊΠΎΠΉ контСкста Π΄ΠΎ 8192 Ρ‚ΠΎΠΊΠ΅Π½ΠΎΠ², Ρ‡Ρ‚ΠΎ Π΄Π΅Π»Π°Π΅Ρ‚ это сСмСйство ΠΈΠ΄Π΅Π°Π»ΡŒΠ½Ρ‹ΠΌ для Π°Π½Π°Π»ΠΈΠ·Π° Π΄ΠΎΠΊΡƒΠΌΠ΅Π½Ρ‚ΠΎΠ², поиска ΠΈΠ½Ρ„ΠΎΡ€ΠΌΠ°Ρ†ΠΈΠΈ, классификации, рСгрСссии ΠΏΠΎΡΠ»Π΅Π΄ΠΎΠ²Π°Ρ‚Π΅Π»ΡŒΠ½ΠΎΡΡ‚ΠΈ, ΠΎΡ†Π΅Π½ΠΊΠΈ качСства, ΠΎΡ†Π΅Π½ΠΊΠΈ Ρ€Π΅Π·ΡŽΠΌΠ΅ ΠΈ Π·Π°Π΄Π°Ρ‡, связанных с ΠΏΡ€ΠΎΠ³Ρ€Π°ΠΌΠΌΠΈΡ€ΠΎΠ²Π°Π½ΠΈΠ΅ΠΌ, Ρ€Π΅ΡˆΠ΅Π½ΠΈΠ΅ΠΌ матСматичСских Π·Π°Π΄Π°Ρ‡ΠΈ.

Π’ ΠΎΡ‚Π»ΠΈΡ‡ΠΈΠ΅ ΠΎΡ‚ ΠΏΡ€Π΅Π΄ΡˆΠ΅ΡΡ‚Π²Π΅Π½Π½ΠΈΠΊΠΎΠ² (XLM-RoBERTa ΠΈ mGTE), EuroBERT объСдинил GQA, RoPE ΠΈ ΡΡ€Π΅Π΄Π½Π΅ΠΊΠ²Π°Π΄Ρ€Π°Ρ‚ΠΈΡ‡Π½ΡƒΡŽ Π½ΠΎΡ€ΠΌΠ°Π»ΠΈΠ·Π°Ρ†ΠΈΡŽ, Ρ‡Ρ‚ΠΎΠ±Ρ‹ Π΄ΠΎΡΡ‚ΠΈΡ‡ΡŒ бСспрСцСдСнтной эффСктивности ΠΏΡ€ΠΎΠΈΠ·Π²ΠΎΠ΄ΠΈΡ‚Π΅Π»ΡŒΠ½ΠΎΡΡ‚ΠΈ Π΄Π°ΠΆΠ΅ Π² слоТных Π·Π°Π΄Π°Ρ‡Π°Ρ…. Π’Ρ‚ΠΎΡ€ΠΎΠ΅ Π½Π΅ΠΌΠ°Π»ΠΎΠ²Π°ΠΆΠ½ΠΎΠ΅ прСимущСство EuroBERT - Π² ΠΎΠ±ΡƒΡ‡Π΅Π½ΠΈΠ΅ ΠΏΠΎΠΌΠΈΠΌΠΎ тСкстовых Π΄Π°Π½Π½Ρ‹Ρ… Π±Ρ‹Π»ΠΈ Π²ΠΊΠ»ΡŽΡ‡Π΅Π½Ρ‹ ΠΏΡ€ΠΈΠΌΠ΅Ρ€Ρ‹ ΠΊΠΎΠ΄Π° ΠΈ Ρ€Π΅ΡˆΠ΅Π½ΠΈΡ матСматичСских Π·Π°Π΄Π°Ρ‡.

Бамая младшая модСль EuroBERT с 210 ΠΌΠ»Π½. ΠΏΠ°Ρ€Π°ΠΌΠ΅Ρ‚Ρ€ΠΎΠ² ΠΏΠΎΠΊΠ°Π·Π°Π»Π° Ρ€Π΅ΠΊΠΎΡ€Π΄Π½Ρ‹Π΅ Ρ€Π΅Π·ΡƒΠ»ΡŒΡ‚Π°Ρ‚Ρ‹: Π² тСстС MIRACL ΠΏΠΎ многоязычному поиску Π΅Ρ‘ Ρ‚ΠΎΡ‡Π½ΠΎΡΡ‚ΡŒ достигла 95%, Π° Π² классификации ΠΎΡ‚Π·Ρ‹Π²ΠΎΠ² (AmazonReviews) β€” 64,5%. ОсобСнно выдСляСтся ΡƒΠΌΠ΅Π½ΠΈΠ΅ Ρ€Π°Π±ΠΎΡ‚Π°Ρ‚ΡŒ с ΠΊΠΎΠ΄ΠΎΠΌ ΠΈ ΠΌΠ°Ρ‚Π΅ΠΌΠ°Ρ‚ΠΈΠΊΠΎΠΉ β€” Π² Π±Π΅Π½Ρ‡ΠΌΠ°Ρ€ΠΊΠ°Ρ… CodeSearchNet ΠΈ MathShepherd EuroBERT ΠΎΠΏΠ΅Ρ€Π΅ΠΆΠ°Π΅Ρ‚ Π°Π½Π°Π»ΠΎΠ³ΠΈ Π½Π° 10–15%.

▢️Бостав Ρ€Π΅Π»ΠΈΠ·Π°:

🟒EuroBERT-210М
🟒EuroBERT-610М
🟒EuroBERT-2.1Π’

⚠️ EuroBERT ΠΌΠΎΠΆΠ½ΠΎ ΠΈΡΠΏΠΎΠ»ΡŒΠ·ΠΎΠ²Π°Ρ‚ΡŒ нСпосрСдствСнно с transformers, начиная с вСрсии 4.48.0

⚠️ Для достиТСния максимальной эффСктивности, Ρ€Π°Π·Ρ€Π°Π±ΠΎΡ‚Ρ‡ΠΈΠΊΠΈ Ρ€Π΅ΠΊΠΎΠΌΠ΅Π½Π΄ΡƒΡŽΡ‚ Π·Π°ΠΏΡƒΡΠΊΠ°Ρ‚ΡŒ EuroBERT с Flash Attention 2

▢️ ΠŸΡ€ΠΈΠΌΠ΅Ρ€ инфСрСнса:

from transformers import AutoTokenizer, AutoModelForMaskedLM

model_id = "EuroBERT/EuroBERT-210m"

tokenizer = AutoTokenizer.from_pretrained(model_id)
model = AutoModelForMaskedLM.from_pretrained(model_id, trust_remote_code=True)

text = "The capital of France is <|mask|>."
inputs = tokenizer(text, return_tensors="pt")
outputs = model(**inputs)

# To get predictions for the mask:
masked_index = inputs["input_ids"][0].tolist().index(tokenizer.mask_token_id)
predicted_token_id = outputs.logits[0, masked_index].argmax(axis=-1)
predicted_token = tokenizer.decode(predicted_token_id)
print("Predicted token:", predicted_token)
# Predicted token: Paris


πŸ“ŒΠ›ΠΈΡ†Π΅Π½Π·ΠΈΡ€ΠΎΠ²Π°Π½ΠΈΠ΅: Apache 2.0 License.


πŸŸ‘Π‘Ρ‚Π°Ρ‚ΡŒΡ
πŸŸ‘ΠšΠΎΠ»Π»Π΅ΠΊΡ†ΠΈΡ Π½Π° HF
🟑Arxiv
πŸ–₯GitHub (Π‘ΠΊΠΎΡ€ΠΎ)


@ai_machinelearning_big_data

#AI #ML #Encoder #EuroBERT
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
πŸ‘61πŸ”₯26❀17πŸ₯°2πŸ€“2😁1



tgoop.com/ai_machinelearning_big_data/6987
Create:
Last Update:

🌟 EuroBERT: энкодСры Π½ΠΎΠ²ΠΎΠ³ΠΎ поколСния.

Π˜ΡΡΠ»Π΅Π΄ΠΎΠ²Π°Ρ‚Π΅Π»ΡŒΡΠΊΠ°Ρ Π³Ρ€ΡƒΠΏΠΏΠ° ΠΏΠΎΠ΄ ΠΏΠ°Ρ‚Ρ€ΠΎΠ½Π°ΠΆΠ΅ΠΌ Centrale SupΓ©lec (УнивСрситСт ΠŸΠ°Ρ€ΠΈΠΆ-Π‘Π°ΠΊΠ»Π΅) выпустила Π² ΠΎΡ‚ΠΊΡ€Ρ‹Ρ‚Ρ‹ΠΉ доступ EuroBERT β€” сСмСйство ΠΌΡƒΠ»ΡŒΡ‚ΠΈΡΠ·Ρ‹Ρ‡Π½Ρ‹Ρ… энкодСров, ΠΎΠ±ΡƒΡ‡Π΅Π½Π½Ρ‹Ρ… Π½Π° 5 Ρ‚Ρ€Π»Π½. Ρ‚ΠΎΠΊΠ΅Π½ΠΎΠ² ΠΈΠ· 15 языков, Π²ΠΊΠ»ΡŽΡ‡Π°Ρ русский.

EuroBERT сочСтаСт ΠΈΠ½Π½ΠΎΠ²Π°Ρ†ΠΈΠΎΠ½Π½ΡƒΡŽ Π°Ρ€Ρ…ΠΈΡ‚Π΅ΠΊΡ‚ΡƒΡ€Ρƒ с ΠΏΠΎΠ΄Π΄Π΅Ρ€ΠΆΠΊΠΎΠΉ контСкста Π΄ΠΎ 8192 Ρ‚ΠΎΠΊΠ΅Π½ΠΎΠ², Ρ‡Ρ‚ΠΎ Π΄Π΅Π»Π°Π΅Ρ‚ это сСмСйство ΠΈΠ΄Π΅Π°Π»ΡŒΠ½Ρ‹ΠΌ для Π°Π½Π°Π»ΠΈΠ·Π° Π΄ΠΎΠΊΡƒΠΌΠ΅Π½Ρ‚ΠΎΠ², поиска ΠΈΠ½Ρ„ΠΎΡ€ΠΌΠ°Ρ†ΠΈΠΈ, классификации, рСгрСссии ΠΏΠΎΡΠ»Π΅Π΄ΠΎΠ²Π°Ρ‚Π΅Π»ΡŒΠ½ΠΎΡΡ‚ΠΈ, ΠΎΡ†Π΅Π½ΠΊΠΈ качСства, ΠΎΡ†Π΅Π½ΠΊΠΈ Ρ€Π΅Π·ΡŽΠΌΠ΅ ΠΈ Π·Π°Π΄Π°Ρ‡, связанных с ΠΏΡ€ΠΎΠ³Ρ€Π°ΠΌΠΌΠΈΡ€ΠΎΠ²Π°Π½ΠΈΠ΅ΠΌ, Ρ€Π΅ΡˆΠ΅Π½ΠΈΠ΅ΠΌ матСматичСских Π·Π°Π΄Π°Ρ‡ΠΈ.

Π’ ΠΎΡ‚Π»ΠΈΡ‡ΠΈΠ΅ ΠΎΡ‚ ΠΏΡ€Π΅Π΄ΡˆΠ΅ΡΡ‚Π²Π΅Π½Π½ΠΈΠΊΠΎΠ² (XLM-RoBERTa ΠΈ mGTE), EuroBERT объСдинил GQA, RoPE ΠΈ ΡΡ€Π΅Π΄Π½Π΅ΠΊΠ²Π°Π΄Ρ€Π°Ρ‚ΠΈΡ‡Π½ΡƒΡŽ Π½ΠΎΡ€ΠΌΠ°Π»ΠΈΠ·Π°Ρ†ΠΈΡŽ, Ρ‡Ρ‚ΠΎΠ±Ρ‹ Π΄ΠΎΡΡ‚ΠΈΡ‡ΡŒ бСспрСцСдСнтной эффСктивности ΠΏΡ€ΠΎΠΈΠ·Π²ΠΎΠ΄ΠΈΡ‚Π΅Π»ΡŒΠ½ΠΎΡΡ‚ΠΈ Π΄Π°ΠΆΠ΅ Π² слоТных Π·Π°Π΄Π°Ρ‡Π°Ρ…. Π’Ρ‚ΠΎΡ€ΠΎΠ΅ Π½Π΅ΠΌΠ°Π»ΠΎΠ²Π°ΠΆΠ½ΠΎΠ΅ прСимущСство EuroBERT - Π² ΠΎΠ±ΡƒΡ‡Π΅Π½ΠΈΠ΅ ΠΏΠΎΠΌΠΈΠΌΠΎ тСкстовых Π΄Π°Π½Π½Ρ‹Ρ… Π±Ρ‹Π»ΠΈ Π²ΠΊΠ»ΡŽΡ‡Π΅Π½Ρ‹ ΠΏΡ€ΠΈΠΌΠ΅Ρ€Ρ‹ ΠΊΠΎΠ΄Π° ΠΈ Ρ€Π΅ΡˆΠ΅Π½ΠΈΡ матСматичСских Π·Π°Π΄Π°Ρ‡.

Бамая младшая модСль EuroBERT с 210 ΠΌΠ»Π½. ΠΏΠ°Ρ€Π°ΠΌΠ΅Ρ‚Ρ€ΠΎΠ² ΠΏΠΎΠΊΠ°Π·Π°Π»Π° Ρ€Π΅ΠΊΠΎΡ€Π΄Π½Ρ‹Π΅ Ρ€Π΅Π·ΡƒΠ»ΡŒΡ‚Π°Ρ‚Ρ‹: Π² тСстС MIRACL ΠΏΠΎ многоязычному поиску Π΅Ρ‘ Ρ‚ΠΎΡ‡Π½ΠΎΡΡ‚ΡŒ достигла 95%, Π° Π² классификации ΠΎΡ‚Π·Ρ‹Π²ΠΎΠ² (AmazonReviews) β€” 64,5%. ОсобСнно выдСляСтся ΡƒΠΌΠ΅Π½ΠΈΠ΅ Ρ€Π°Π±ΠΎΡ‚Π°Ρ‚ΡŒ с ΠΊΠΎΠ΄ΠΎΠΌ ΠΈ ΠΌΠ°Ρ‚Π΅ΠΌΠ°Ρ‚ΠΈΠΊΠΎΠΉ β€” Π² Π±Π΅Π½Ρ‡ΠΌΠ°Ρ€ΠΊΠ°Ρ… CodeSearchNet ΠΈ MathShepherd EuroBERT ΠΎΠΏΠ΅Ρ€Π΅ΠΆΠ°Π΅Ρ‚ Π°Π½Π°Π»ΠΎΠ³ΠΈ Π½Π° 10–15%.

▢️Бостав Ρ€Π΅Π»ΠΈΠ·Π°:

🟒EuroBERT-210М
🟒EuroBERT-610М
🟒EuroBERT-2.1Π’

⚠️ EuroBERT ΠΌΠΎΠΆΠ½ΠΎ ΠΈΡΠΏΠΎΠ»ΡŒΠ·ΠΎΠ²Π°Ρ‚ΡŒ нСпосрСдствСнно с transformers, начиная с вСрсии 4.48.0

⚠️ Для достиТСния максимальной эффСктивности, Ρ€Π°Π·Ρ€Π°Π±ΠΎΡ‚Ρ‡ΠΈΠΊΠΈ Ρ€Π΅ΠΊΠΎΠΌΠ΅Π½Π΄ΡƒΡŽΡ‚ Π·Π°ΠΏΡƒΡΠΊΠ°Ρ‚ΡŒ EuroBERT с Flash Attention 2

▢️ ΠŸΡ€ΠΈΠΌΠ΅Ρ€ инфСрСнса:

from transformers import AutoTokenizer, AutoModelForMaskedLM

model_id = "EuroBERT/EuroBERT-210m"

tokenizer = AutoTokenizer.from_pretrained(model_id)
model = AutoModelForMaskedLM.from_pretrained(model_id, trust_remote_code=True)

text = "The capital of France is <|mask|>."
inputs = tokenizer(text, return_tensors="pt")
outputs = model(**inputs)

# To get predictions for the mask:
masked_index = inputs["input_ids"][0].tolist().index(tokenizer.mask_token_id)
predicted_token_id = outputs.logits[0, masked_index].argmax(axis=-1)
predicted_token = tokenizer.decode(predicted_token_id)
print("Predicted token:", predicted_token)
# Predicted token: Paris


πŸ“ŒΠ›ΠΈΡ†Π΅Π½Π·ΠΈΡ€ΠΎΠ²Π°Π½ΠΈΠ΅: Apache 2.0 License.


πŸŸ‘Π‘Ρ‚Π°Ρ‚ΡŒΡ
πŸŸ‘ΠšΠΎΠ»Π»Π΅ΠΊΡ†ΠΈΡ Π½Π° HF
🟑Arxiv
πŸ–₯GitHub (Π‘ΠΊΠΎΡ€ΠΎ)


@ai_machinelearning_big_data

#AI #ML #Encoder #EuroBERT

BY Machinelearning







Share with your friend now:
tgoop.com/ai_machinelearning_big_data/6987

View MORE
Open in Telegram


Telegram News

Date: |

The visual aspect of channels is very critical. In fact, design is the first thing that a potential subscriber pays attention to, even though unconsciously. There have been several contributions to the group with members posting voice notes of screaming, yelling, groaning, and wailing in different rhythms and pitches. Calling out the β€œdegenerate” community or the crypto obsessives that engage in high-risk trading, Co-founder of NFT renting protocol Rentable World emiliano.eth shared this group on his Twitter. He wrote: β€œhey degen, are you stressed? Just let it out all out. Voice only tg channel for screaming”. Each account can create up to 10 public channels Other crimes that the SUCK Channel incited under Ng’s watch included using corrosive chemicals to make explosives and causing grievous bodily harm with intent. The court also found Ng responsible for calling on people to assist protesters who clashed violently with police at several universities in November 2019. "Doxxing content is forbidden on Telegram and our moderators routinely remove such content from around the world," said a spokesman for the messaging app, Remi Vaughn.
from us


Telegram Machinelearning
FROM American