Language detection - Nhận diện ngôn ngữ

Nhận diện ngôn ngữ hỗ trợ các ngôn ngữ:

  • Tiếng Việt
  • Tiếng Mường
  • Tiếng Anh
  • Tiếng Việt (không dấu)
  • Tiếng Mường (không dấu)

Model description

Mô hình có tác dụng nhận diện ngôn ngữ hỗ trợ các ngôn ngữ:

  • Tiếng Việt
  • Tiếng Mường
  • Tiếng Anh
  • Tiếng Việt (không dấu)
  • Tiếng Mường (không dấu)

Ví dụ:

Xin chào, bạn hôm nay thế nào?

**Tiếng Việt phổ thông: 99.99054670333862**
Tiếng Mường: 0.003272495450801216
Tiếng Anh: 0.0015341358448495157
Tiếng Việt phổ thông (không dấu): 0.0029244738470879383
Tiếng Mường (không dấu): 0.001718075327516999

Xin chao, ban hom nay the nao?

Tiếng Việt phổ thông: 0.002801197115331888
Tiếng Mường: 0.002109220076818019
Tiếng Anh: 0.0010244550139759667
**Tiếng Việt phổ thông (không dấu): 99.98856782913208**
Tiếng Mường (không dấu): 0.005498817336047068

Hi, how do you do?

Tiếng Việt phổ thông: 6.934634910749082e-06
Tiếng Mường: 7.518105604731318e-06
**Tiếng Anh: 99.99995231628418**
Tiếng Việt phổ thông (không dấu): 1.4838792594673578e-05
Tiếng Mường (không dấu): 1.1849249403894646e-05

Ủn cha̒w tưở da̭.

Tiếng Việt phổ thông: 0.054886669386178255
**Tiếng Mường: 99.93938207626343**
Tiếng Anh: 0.0010535893125052098
Tiếng Việt phổ thông (không dấu): 0.0021749850930063985
Tiếng Mường (không dấu): 0.002491030318196863

Un chaw tuo da.

Tiếng Việt phổ thông: 0.0016880025214049965
Tiếng Mường: 0.003152283898089081
Tiếng Anh: 0.001133861587732099
Tiếng Việt phổ thông (không dấu): 0.004193674249108881
**Tiếng Mường (không dấu): 99.98983144760132**

Base model

Mô hình được đạo tạo dựa trên cơ sở của model google-bert/bert-base-multilingual-cased

Training data

Chưa thể công khai dữ liệu training

Model variations

Chưa xác định

Intended uses & limitations

Chưa xác định

License

Đây là một open-source library, bạn có thể sử dụng nó với bất kì mục đích nào. Rất cảm ơn nếu bạn ghi nguồn khi sử dụng mô hình này (nếu không ghi cũng không sao).

How to use

import torch
from transformers import AutoTokenizer, AutoModelForSequenceClassification

tokenizer = AutoTokenizer.from_pretrained("mr4/language_classification")
model = AutoModelForSequenceClassification.from_pretrained("mr4/language_classification")

text = "Xin chào, tôi tên là Đặng Việt Dũng."
inputs = tokenizer(text, return_tensors="pt")

with torch.no_grad():
    logits = model(**inputs).logits

predictions = torch.nn.functional.softmax(logits, dim=-1)
print(predictions)
print(">>>>>>>>>>>>>>>>>>>>>>>>>>")
for i, prediction in enumerate(predictions):
    print(text)
    for j, value in enumerate(prediction):
        print(f"    {id2label[j]}: {value.item() * 100}")
print("<<<<<<<<<<<<<<<<<<<<<<<<<<")

Liên hệ

Mọi thông tin liên quan có thể liên hệ qua email: [email protected].

Downloads last month
2
Safetensors
Model size
178M params
Tensor type
F32
·
Inference Providers NEW
This model isn't deployed by any Inference Provider. 🙋 Ask for provider support