Edit model card

SentenceTransformer based on intfloat/multilingual-e5-base

This is a sentence-transformers model finetuned from intfloat/multilingual-e5-base. It maps sentences & paragraphs to a 768-dimensional dense vector space and can be used for semantic textual similarity, semantic search, paraphrase mining, text classification, clustering, and more.

Model Details

Model Description

  • Model Type: Sentence Transformer
  • Base model: intfloat/multilingual-e5-base
  • Maximum Sequence Length: 512 tokens
  • Output Dimensionality: 768 tokens
  • Similarity Function: Cosine Similarity

Model Sources

Full Model Architecture

SentenceTransformer(
  (0): Transformer({'max_seq_length': 512, 'do_lower_case': False}) with Transformer model: XLMRobertaModel 
  (1): Pooling({'word_embedding_dimension': 768, 'pooling_mode_cls_token': False, 'pooling_mode_mean_tokens': True, 'pooling_mode_max_tokens': False, 'pooling_mode_mean_sqrt_len_tokens': False, 'pooling_mode_weightedmean_tokens': False, 'pooling_mode_lasttoken': False, 'include_prompt': True})
  (2): Normalize()
)

Usage

Direct Usage (Sentence Transformers)

First install the Sentence Transformers library:

pip install -U sentence-transformers

Then you can load this model and run inference.

from sentence_transformers import SentenceTransformer

# Download from the 🤗 Hub
model = SentenceTransformer("meandyou200175/e5_large_finetune_16neg")
# Run inference
sentences = [
    'Bác sĩ cho em hỏi, em bị rạn nứt xương gót chân bên phải. Em bị hơn 1 tháng nay rồi. Em bỏ thuốc lá. Em muốn hỏi bác sĩ thông thường bó bột hơn hay thuốc lá hơn? Như của em khoảng bao lâu thì khỏi? Và giờ em vẫn chưa đi được bác sĩ ạ. Em cảm ơn.',
    'Chào em, Thứ nhất, bắt buộc phải có phim Xquang để biết em có thực sự nứt xương gót hay bị gãy phức tạp hơn, vì nhiều trường hợp tưởng chỉ nứt xương thôi nhưng thật ra là vỡ phức tạp, phải phẫu thuật mới nhanh ổn được. Thứ hai, theo nguyên tắc điều trị nứt gãy xương là phải cố định tốt để can xương mọc ra, chỗ nứt gãy mới được nối liền. Do đó, nếu bó bột thì chân sẽ được cố định liên tục trong 4-6 tuần, còn bó lá thì phải thay thường xuyên, mỗi lần thay là 1 lần xê dịch nên xương khó lành. Tốt hơn hết em nên đến Bệnh viện Chấn thương Chỉnh hình để được kiểm tra và điều trị thích hợp, em nhé. Thân mến.',
    'Chào bạn, Qua hình ảnh sang thương và mô tả triệu chứng, bệnh lý của bạn có khả năng là chàm hay còn gọi là viêm da dị ứng với đặc điểm là viêm và nổi mụn nhỏ, ngứa ngáy. Nguyên nhân của chàm hiện nay chưa rõ nhưng có thể do cơ địa dị ứng (người mắc hen, viêm mũi dị ứng có nguy cơ cao mắc chàm), do kích thích của hóa chất như nước rửa chén, bột giặt, cao su, kim loại, chất liệu giày dép (chàm tiếp xúc),... Thời tiết lạnh, stress, đổ mồ hôi nhiều và phấn hoa... cũng là những nguyên nhân có thể khiến da bị chàm. Chàm cũng có thể gặp ở người bị suy van tĩnh mạch, giãn tĩnh mạch chân khiến tình trạng bệnh dai dẳng, kém đáp ứng điều trị. Điều trị chàm thường phải sử dụng một số loại thuốc bôi da kéo dài, có thể để lại tác dụng phụ, do đó bạn nên khám BS Da liễu để kê toa loại thuốc phù hợp. Ngoài ra, bạn nên chú ý xem có yếu tố nào thường kích thích khởi phát chàm để tránh cho bệnh tái phát bạn nhé! Thân mến.',
]
embeddings = model.encode(sentences)
print(embeddings.shape)
# [3, 768]

# Get the similarity scores for the embeddings
similarities = model.similarity(embeddings, embeddings)
print(similarities.shape)
# [3, 3]

Evaluation

Metrics

Information Retrieval

Metric Value
cosine_accuracy@1 0.7416
cosine_accuracy@3 0.8559
cosine_accuracy@5 0.8966
cosine_accuracy@10 0.9341
cosine_precision@1 0.7416
cosine_precision@3 0.2853
cosine_precision@5 0.1793
cosine_precision@10 0.0934
cosine_recall@1 0.7416
cosine_recall@3 0.8559
cosine_recall@5 0.8966
cosine_recall@10 0.9341
cosine_ndcg@10 0.8384
cosine_mrr@10 0.8077
cosine_map@100 0.8107
dot_accuracy@1 0.7416
dot_accuracy@3 0.8559
dot_accuracy@5 0.8966
dot_accuracy@10 0.9341
dot_precision@1 0.7416
dot_precision@3 0.2853
dot_precision@5 0.1793
dot_precision@10 0.0934
dot_recall@1 0.7416
dot_recall@3 0.8559
dot_recall@5 0.8966
dot_recall@10 0.9341
dot_ndcg@10 0.8384
dot_mrr@10 0.8077
dot_map@100 0.8107

Training Details

Training Hyperparameters

Non-Default Hyperparameters

  • eval_strategy: steps
  • per_device_train_batch_size: 2
  • per_device_eval_batch_size: 2
  • learning_rate: 2e-05
  • num_train_epochs: 1
  • warmup_ratio: 0.1
  • fp16: True
  • batch_sampler: no_duplicates

All Hyperparameters

Click to expand
  • overwrite_output_dir: False
  • do_predict: False
  • eval_strategy: steps
  • prediction_loss_only: True
  • per_device_train_batch_size: 2
  • per_device_eval_batch_size: 2
  • per_gpu_train_batch_size: None
  • per_gpu_eval_batch_size: None
  • gradient_accumulation_steps: 1
  • eval_accumulation_steps: None
  • torch_empty_cache_steps: None
  • learning_rate: 2e-05
  • weight_decay: 0.0
  • adam_beta1: 0.9
  • adam_beta2: 0.999
  • adam_epsilon: 1e-08
  • max_grad_norm: 1.0
  • num_train_epochs: 1
  • max_steps: -1
  • lr_scheduler_type: linear
  • lr_scheduler_kwargs: {}
  • warmup_ratio: 0.1
  • warmup_steps: 0
  • log_level: passive
  • log_level_replica: warning
  • log_on_each_node: True
  • logging_nan_inf_filter: True
  • save_safetensors: True
  • save_on_each_node: False
  • save_only_model: False
  • restore_callback_states_from_checkpoint: False
  • no_cuda: False
  • use_cpu: False
  • use_mps_device: False
  • seed: 42
  • data_seed: None
  • jit_mode_eval: False
  • use_ipex: False
  • bf16: False
  • fp16: True
  • fp16_opt_level: O1
  • half_precision_backend: auto
  • bf16_full_eval: False
  • fp16_full_eval: False
  • tf32: None
  • local_rank: 0
  • ddp_backend: None
  • tpu_num_cores: None
  • tpu_metrics_debug: False
  • debug: []
  • dataloader_drop_last: False
  • dataloader_num_workers: 0
  • dataloader_prefetch_factor: None
  • past_index: -1
  • disable_tqdm: False
  • remove_unused_columns: True
  • label_names: None
  • load_best_model_at_end: False
  • ignore_data_skip: False
  • fsdp: []
  • fsdp_min_num_params: 0
  • fsdp_config: {'min_num_params': 0, 'xla': False, 'xla_fsdp_v2': False, 'xla_fsdp_grad_ckpt': False}
  • fsdp_transformer_layer_cls_to_wrap: None
  • accelerator_config: {'split_batches': False, 'dispatch_batches': None, 'even_batches': True, 'use_seedable_sampler': True, 'non_blocking': False, 'gradient_accumulation_kwargs': None}
  • deepspeed: None
  • label_smoothing_factor: 0.0
  • optim: adamw_torch
  • optim_args: None
  • adafactor: False
  • group_by_length: False
  • length_column_name: length
  • ddp_find_unused_parameters: None
  • ddp_bucket_cap_mb: None
  • ddp_broadcast_buffers: False
  • dataloader_pin_memory: True
  • dataloader_persistent_workers: False
  • skip_memory_metrics: True
  • use_legacy_prediction_loop: False
  • push_to_hub: False
  • resume_from_checkpoint: None
  • hub_model_id: None
  • hub_strategy: every_save
  • hub_private_repo: False
  • hub_always_push: False
  • gradient_checkpointing: False
  • gradient_checkpointing_kwargs: None
  • include_inputs_for_metrics: False
  • eval_do_concat_batches: True
  • fp16_backend: auto
  • push_to_hub_model_id: None
  • push_to_hub_organization: None
  • mp_parameters:
  • auto_find_batch_size: False
  • full_determinism: False
  • torchdynamo: None
  • ray_scope: last
  • ddp_timeout: 1800
  • torch_compile: False
  • torch_compile_backend: None
  • torch_compile_mode: None
  • dispatch_batches: None
  • split_batches: None
  • include_tokens_per_second: False
  • include_num_input_tokens_seen: False
  • neftune_noise_alpha: None
  • optim_target_modules: None
  • batch_eval_metrics: False
  • eval_on_start: False
  • use_liger_kernel: False
  • eval_use_gather_object: False
  • batch_sampler: no_duplicates
  • multi_dataset_batch_sampler: proportional

Training Logs

Click to expand
Epoch Step Training Loss Validation Loss cosine_map@100
0 0 - - 0.7050
0.0046 100 2.2456 - -
0.0091 200 1.4036 - -
0.0137 300 0.4733 - -
0.0183 400 0.2427 - -
0.0228 500 0.2094 - -
0.0274 600 0.1579 - -
0.0320 700 0.147 - -
0.0365 800 0.1843 - -
0.0411 900 0.1713 - -
0.0457 1000 0.2074 0.0182 0.7295
0.0502 1100 0.1834 - -
0.0548 1200 0.1873 - -
0.0594 1300 0.1078 - -
0.0639 1400 0.158 - -
0.0685 1500 0.0976 - -
0.0731 1600 0.1475 - -
0.0776 1700 0.1735 - -
0.0822 1800 0.1233 - -
0.0868 1900 0.113 - -
0.0913 2000 0.2061 0.0174 0.7392
0.0959 2100 0.1681 - -
0.1004 2200 0.1315 - -
0.1050 2300 0.1805 - -
0.1096 2400 0.1659 - -
0.1141 2500 0.1142 - -
0.1187 2600 0.1001 - -
0.1233 2700 0.141 - -
0.1278 2800 0.2741 - -
0.1324 2900 0.1212 - -
0.1370 3000 0.1081 0.0214 0.7236
0.1415 3100 0.1535 - -
0.1461 3200 0.1588 - -
0.1507 3300 0.1734 - -
0.1552 3400 0.1239 - -
0.1598 3500 0.1515 - -
0.1644 3600 0.1923 - -
0.1689 3700 0.2158 - -
0.1735 3800 0.1589 - -
0.1781 3900 0.1333 - -
0.1826 4000 0.1567 0.0193 0.7444
0.1872 4100 0.128 - -
0.1918 4200 0.1909 - -
0.1963 4300 0.0948 - -
0.2009 4400 0.1284 - -
0.2055 4500 0.1101 - -
0.2100 4600 0.1342 - -
0.2146 4700 0.1431 - -
0.2192 4800 0.1779 - -
0.2237 4900 0.1926 - -
0.2283 5000 0.1413 0.0216 0.7233
0.2329 5100 0.163 - -
0.2374 5200 0.1309 - -
0.2420 5300 0.1381 - -
0.2466 5400 0.1975 - -
0.2511 5500 0.0921 - -
0.2557 5600 0.1378 - -
0.2603 5700 0.17 - -
0.2648 5800 0.1614 - -
0.2694 5900 0.116 - -
0.2739 6000 0.206 0.0177 0.7437
0.2785 6100 0.1592 - -
0.2831 6200 0.102 - -
0.2876 6300 0.148 - -
0.2922 6400 0.1497 - -
0.2968 6500 0.1532 - -
0.3013 6600 0.1342 - -
0.3059 6700 0.1463 - -
0.3105 6800 0.1617 - -
0.3150 6900 0.1384 - -
0.3196 7000 0.0824 0.0143 0.7508
0.3242 7100 0.1129 - -
0.3287 7200 0.1192 - -
0.3333 7300 0.1283 - -
0.3379 7400 0.1421 - -
0.3424 7500 0.0784 - -
0.3470 7600 0.1096 - -
0.3516 7700 0.0684 - -
0.3561 7800 0.0849 - -
0.3607 7900 0.1183 - -
0.3653 8000 0.0873 0.0101 0.7599
0.3698 8100 0.1331 - -
0.3744 8200 0.0238 - -
0.3790 8300 0.1123 - -
0.3835 8400 0.0816 - -
0.3881 8500 0.1117 - -
0.3927 8600 0.2178 - -
0.3972 8700 0.0752 - -
0.4018 8800 0.1138 - -
0.4064 8900 0.1039 - -
0.4109 9000 0.119 0.0125 0.7596
0.4155 9100 0.1164 - -
0.4201 9200 0.1008 - -
0.4246 9300 0.1605 - -
0.4292 9400 0.1103 - -
0.4338 9500 0.0518 - -
0.4383 9600 0.1239 - -
0.4429 9700 0.1076 - -
0.4474 9800 0.077 - -
0.4520 9900 0.0753 - -
0.4566 10000 0.1535 0.0113 0.7597
0.4611 10100 0.136 - -
0.4657 10200 0.164 - -
0.4703 10300 0.0494 - -
0.4748 10400 0.1561 - -
0.4794 10500 0.0658 - -
0.4840 10600 0.0464 - -
0.4885 10700 0.0794 - -
0.4931 10800 0.1572 - -
0.4977 10900 0.0902 - -
0.5022 11000 0.0808 0.0104 0.7770
0.5068 11100 0.0452 - -
0.5114 11200 0.0555 - -
0.5159 11300 0.0754 - -
0.5205 11400 0.122 - -
0.5251 11500 0.1165 - -
0.5296 11600 0.1068 - -
0.5342 11700 0.0813 - -
0.5388 11800 0.1062 - -
0.5433 11900 0.1105 - -
0.5479 12000 0.1126 0.0104 0.7788
0.5525 12100 0.0947 - -
0.5570 12200 0.0803 - -
0.5616 12300 0.0945 - -
0.5662 12400 0.1576 - -
0.5707 12500 0.0798 - -
0.5753 12600 0.0743 - -
0.5799 12700 0.0441 - -
0.5844 12800 0.0529 - -
0.5890 12900 0.0562 - -
0.5936 13000 0.046 0.0100 0.7845
0.5981 13100 0.0735 - -
0.6027 13200 0.1007 - -
0.6073 13300 0.1 - -
0.6118 13400 0.0784 - -
0.6164 13500 0.0663 - -
0.6209 13600 0.0446 - -
0.6255 13700 0.1207 - -
0.6301 13800 0.1348 - -
0.6346 13900 0.0741 - -
0.6392 14000 0.0535 0.0088 0.7948
0.6438 14100 0.1341 - -
0.6483 14200 0.0866 - -
0.6529 14300 0.1242 - -
0.6575 14400 0.0314 - -
0.6620 14500 0.0682 - -
0.6666 14600 0.1194 - -
0.6712 14700 0.0723 - -
0.6757 14800 0.1074 - -
0.6803 14900 0.0737 - -
0.6849 15000 0.1153 0.0081 0.7988
0.6894 15100 0.0791 - -
0.6940 15200 0.072 - -
0.6986 15300 0.0453 - -
0.7031 15400 0.1049 - -
0.7077 15500 0.0948 - -
0.7123 15600 0.0588 - -
0.7168 15700 0.0733 - -
0.7214 15800 0.071 - -
0.7260 15900 0.0485 - -
0.7305 16000 0.1058 0.0083 0.7949
0.7351 16100 0.0568 - -
0.7397 16200 0.1078 - -
0.7442 16300 0.0616 - -
0.7488 16400 0.0693 - -
0.7534 16500 0.101 - -
0.7579 16600 0.05 - -
0.7625 16700 0.0707 - -
0.7671 16800 0.1209 - -
0.7716 16900 0.0474 - -
0.7762 17000 0.0418 0.0090 0.7955
0.7808 17100 0.0636 - -
0.7853 17200 0.1196 - -
0.7899 17300 0.1044 - -
0.7944 17400 0.0641 - -
0.7990 17500 0.0582 - -
0.8036 17600 0.0582 - -
0.8081 17700 0.048 - -
0.8127 17800 0.0612 - -
0.8173 17900 0.023 - -
0.8218 18000 0.0586 0.0088 0.7990
0.8264 18100 0.0874 - -
0.8310 18200 0.0544 - -
0.8355 18300 0.0764 - -
0.8401 18400 0.0342 - -
0.8447 18500 0.0507 - -
0.8492 18600 0.0586 - -
0.8538 18700 0.059 - -
0.8584 18800 0.074 - -
0.8629 18900 0.0579 - -
0.8675 19000 0.0515 0.0081 0.8050
0.8721 19100 0.0799 - -
0.8766 19200 0.0267 - -
0.8812 19300 0.0721 - -
0.8858 19400 0.0539 - -
0.8903 19500 0.0279 - -
0.8949 19600 0.0777 - -
0.8995 19700 0.0446 - -
0.9040 19800 0.0463 - -
0.9086 19900 0.1307 - -
0.9132 20000 0.0858 0.0077 0.8088
0.9177 20100 0.0789 - -
0.9223 20200 0.0582 - -
0.9269 20300 0.0916 - -
0.9314 20400 0.0698 - -
0.9360 20500 0.059 - -
0.9406 20600 0.0616 - -
0.9451 20700 0.1104 - -
0.9497 20800 0.0268 - -
0.9543 20900 0.0397 - -
0.9588 21000 0.0473 0.0075 0.8107
0.9634 21100 0.0697 - -
0.9679 21200 0.0889 - -
0.9725 21300 0.042 - -
0.9771 21400 0.0359 - -
0.9816 21500 0.0995 - -
0.9862 21600 0.0745 - -
0.9908 21700 0.0492 - -
0.9953 21800 0.0597 - -
0.9999 21900 0.0113 - -

Framework Versions

  • Python: 3.10.14
  • Sentence Transformers: 3.2.1
  • Transformers: 4.45.1
  • PyTorch: 2.4.0
  • Accelerate: 0.34.2
  • Datasets: 3.0.1
  • Tokenizers: 0.20.0

Citation

BibTeX

Sentence Transformers

@inproceedings{reimers-2019-sentence-bert,
    title = "Sentence-BERT: Sentence Embeddings using Siamese BERT-Networks",
    author = "Reimers, Nils and Gurevych, Iryna",
    booktitle = "Proceedings of the 2019 Conference on Empirical Methods in Natural Language Processing",
    month = "11",
    year = "2019",
    publisher = "Association for Computational Linguistics",
    url = "https://arxiv.org/abs/1908.10084",
}

MultipleNegativesRankingLoss

@misc{henderson2017efficient,
    title={Efficient Natural Language Response Suggestion for Smart Reply},
    author={Matthew Henderson and Rami Al-Rfou and Brian Strope and Yun-hsuan Sung and Laszlo Lukacs and Ruiqi Guo and Sanjiv Kumar and Balint Miklos and Ray Kurzweil},
    year={2017},
    eprint={1705.00652},
    archivePrefix={arXiv},
    primaryClass={cs.CL}
}
Downloads last month
7
Safetensors
Model size
278M params
Tensor type
F32
·
Inference Examples
This model does not have enough activity to be deployed to Inference API (serverless) yet. Increase its social visibility and check back later, or deploy to Inference Endpoints (dedicated) instead.

Model tree for meandyou200175/e5_large_finetune_16neg

Finetuned
(27)
this model

Evaluation results