metadata
license: apache-2.0
base_model: t5-small
tags:
- summarization
- generated_from_trainer
metrics:
- rouge
model-index:
- name: t5-vietnamese-summarization
results: []
language:
- vi
pipeline_tag: summarization
widget:
- text: >-
Theo Bộ trưởng Thông tin và Truyền thông, mục tiêu của công nghệ số, trong
đó có trí tuệ nhân tạo, là để người dân giàu có, hạnh phúc hơn. "Các công
nghệ số, nhất là trí tuệ nhân tạo, phải được sử dụng một cách đúng đắn, có
đạo đức để hướng tới thực hiện những mục tiêu vì con người", Bộ trưởng
Nguyễn Mạnh Hùng phát biểu tại Diễn đàn quốc gia phát triển kinh tế số và
xã hội số lần thứ nhất, tổ chức tại Nam Định sáng 14/9. Chủ đề của diễn
đàn là "Đưa nền tảng số đến từng hộ gia đình". Theo Bộ trưởng, đây cũng là
mục tiêu và cách làm của Việt Nam trong chuyển đổi số. "Đó là mỗi gia
đình, mỗi người dân được tiếp cận với công nghệ số và được tham gia và thụ
hưởng lợi ích từ chuyển đổi số", ông nói.
example_title: Example 1
t5-vietnamese-summarization
This model is a fine-tuned version of t5-small on an unknown dataset. It achieves the following results on the evaluation set:
- Loss: 6.7088
- Rouge1: 0.3594
- Rouge2: 0.1038
- Rougel: 0.2326
- Rougelsum: 0.2333
- Gen Len: 17.614
Model description
More information needed
Intended uses & limitations
More information needed
Training and evaluation data
More information needed
Training procedure
Training hyperparameters
The following hyperparameters were used during training:
- learning_rate: 2e-05
- train_batch_size: 16
- eval_batch_size: 16
- seed: 42
- optimizer: Adam with betas=(0.9,0.999) and epsilon=1e-08
- lr_scheduler_type: linear
- num_epochs: 4
Training results
Training Loss | Epoch | Step | Validation Loss | Rouge1 | Rouge2 | Rougel | Rougelsum | Gen Len |
---|---|---|---|---|---|---|---|---|
No log | 1.0 | 282 | 6.8323 | 0.23 | 0.0659 | 0.1532 | 0.1533 | 17.146 |
7.1083 | 2.0 | 564 | 6.7612 | 0.3211 | 0.0944 | 0.2101 | 0.2103 | 16.972 |
7.1083 | 3.0 | 846 | 6.7147 | 0.3473 | 0.1015 | 0.2266 | 0.2272 | 17.276 |
6.9522 | 4.0 | 1128 | 6.7088 | 0.3594 | 0.1038 | 0.2326 | 0.2333 | 17.614 |
Framework versions
- Transformers 4.33.2
- Pytorch 2.0.1+cu118
- Datasets 2.14.5
- Tokenizers 0.13.3