SentenceTransformer based on sgt-kuraii/xlm-domain-adapted-cosine
This is a sentence-transformers model finetuned from sgt-kuraii/xlm-domain-adapted-cosine. It maps sentences & paragraphs to a 768-dimensional dense vector space and can be used for semantic textual similarity, semantic search, paraphrase mining, text classification, clustering, and more.
Model Details
Model Description
- Model Type: Sentence Transformer
- Base model: sgt-kuraii/xlm-domain-adapted-cosine
- Maximum Sequence Length: 512 tokens
- Output Dimensionality: 768 dimensions
- Similarity Function: Cosine Similarity
Model Sources
- Documentation: Sentence Transformers Documentation
- Repository: Sentence Transformers on GitHub
- Hugging Face: Sentence Transformers on Hugging Face
Full Model Architecture
SentenceTransformer(
(0): Transformer({'max_seq_length': 512, 'do_lower_case': False}) with Transformer model: XLMRobertaModel
(1): Pooling({'word_embedding_dimension': 768, 'pooling_mode_cls_token': False, 'pooling_mode_mean_tokens': True, 'pooling_mode_max_tokens': False, 'pooling_mode_mean_sqrt_len_tokens': False, 'pooling_mode_weightedmean_tokens': False, 'pooling_mode_lasttoken': False, 'include_prompt': True})
)
Usage
Direct Usage (Sentence Transformers)
First install the Sentence Transformers library:
pip install -U sentence-transformers
Then you can load this model and run inference.
from sentence_transformers import SentenceTransformer
# Download from the 🤗 Hub
model = SentenceTransformer("sgt-kuraii/xlm-domain-adapted-tsdae")
# Run inference
sentences = [
'niet meer inhoudingsplichtig',
'U bent niet meer inhoudingsplichtig',
'U gebruikt voor elk nabetaald maandloon van € 2.500 de witte maandtabel die in april 2025 geldt. De loonbelasting/premie volksverzekeringen (voor inwoners van Nederland) hierover is bijvoorbeeld € 300,00. Dit bedrag vermenigvuldigt u daarna met 6. Het hele loon (€ 15.000) en de totale loonbelasting/premie volksverzekeringen (€ 1.800,00) geeft u, samen met het reguliere loon over april, aan in de aangifte over april.',
]
embeddings = model.encode(sentences)
print(embeddings.shape)
# [3, 768]
# Get the similarity scores for the embeddings
similarities = model.similarity(embeddings, embeddings)
print(similarities.shape)
# [3, 3]
Training Details
Training Dataset
Unnamed Dataset
- Size: 7,157 training samples
- Columns:
sentence_0
andsentence_1
- Approximate statistics based on the first 1000 samples:
sentence_0 sentence_1 type string string details - min: 3 tokens
- mean: 26.15 tokens
- max: 211 tokens
- min: 3 tokens
- mean: 60.25 tokens
- max: 512 tokens
- Samples:
sentence_0 sentence_1 Voor de het 15 jaar en de arbeidsrelatie tussen, met andere woorden: de arbeidsvoorwaarden gelijk werknemers In geval: De voor de loonbelasting/premie volksverzekeringen en moet betalen De ouder bijbehorende administratieve voldoen . moet bijvoorbeeld van administratie bewaren . kind is niet de werknemersverzekeringen.
Voor meewerkende kinderen geldt de fictieve dienstbetrekking als het kind ten minste 15 jaar is en de familierelatie in de arbeidsrelatie tussen ouder en kind overheerst, met andere woorden: de arbeidsvoorwaarden zijn niet gelijk aan die van de andere werknemers. In dat geval geldt het volgende: De ouder is inhoudingsplichtig voor de loonbelasting/premie volksverzekeringen en moet werkgeversheffing Zvw betalen. De ouder moet aan alle bijbehorende administratieve verplichtingen voldoen. Hij moet bijvoorbeeld een kopie van het identiteitsbewijs van zijn kind bij de administratie bewaren. Het meewerkende kind is niet verzekerd voor de werknemersverzekeringen.
U gemiddelde week in het kalenderjaar door de stap 3 berekende arbeidsomvang delen door het stap berekende weken . uren . meer dan week hoeft u te hoeft niet te . Is minder, dan u wel verder.
U berekent de gemiddelde arbeidsomvang per week in het kalenderjaar door de bij stap 3 berekende arbeidsomvang per kalenderjaar te delen door het bij stap 4 berekende aantal weken. U rondt het aantal uren naar boven af op hele uren (zonder decimalen). Is de gemiddelde arbeidsomvang meer dan 30 uur per week, dan hoeft u niet te herzien. U hoeft berekening 2 dan niet te doen. Is de gemiddelde arbeidsomvang 30 uur per week of minder, dan gaat u wel verder met berekening 2.
het van zaak de percentage bijtelling auto tellen zijn werkelijke van auto zie paragraaf In waarde van € 400 en de eigen van werknemer € . De 300 . bedragen geen van het of de . Wij om de inzichtelijk te . U percentages grondslag de werknemersverzekeringen (kolom de, 11.2.7) de ervan dat toepassing . Met eventuele vcr hoofdstuk we in dit voorbeeld geen rekening gehouden U berekent van loonstaat zie . er de werkgeversheffing Zvw Zou sprake de bijdrage, houdt op het . de mogen . Bedrag de van Nederland (zie 9.3.2 over de voor de loonbelasting/volksverzekeringen van de) U de premiecomponent van gedifferentieerde premie Whk op het van de verhalen Dit u netto de . een gerichte vrijstelling () een deels in de vrije valt, of een . voor meer kosten zijn niet in
U moet voor het privégebruik van de auto van de zaak door de werknemer een vast percentage van de grondslag voor de bijtelling privégebruik auto bij het loon tellen. Dit zijn niet de werkelijke kosten van de auto (zie paragraaf 23.3). In dit voorbeeld is de waarde van het privégebruik € 400 en de eigen bijdrage van de werknemer € 100. De bijtelling is dan € 300. Deze bedragen zijn geen onderdeel van het belaste loon of de loonberekening. Wij hebben ze opgenomen om de loonkosten inzichtelijk te maken. U berekent de percentages over de grondslag voor de werknemersverzekeringen (kolom 8 van de loonstaat, zie paragraaf 11.2.7). Voor de berekening in dit voorbeeld wordt ervan uitgegaan dat de lage premie van toepassing is. Met eventuele effecten van het vcr (zie hoofdstuk 5) hebben we in dit voorbeeld geen rekening gehouden. U berekent het percentage over de grondslag voor de Zorgverzekeringswet (kolom 12 van de loonstaat, zie paragraaf 11.2.8). In dit voorbeeld is er sprake van de werkgeve...
- Loss:
DenoisingAutoEncoderLoss
Training Hyperparameters
Non-Default Hyperparameters
num_train_epochs
: 2multi_dataset_batch_sampler
: round_robin
All Hyperparameters
Click to expand
overwrite_output_dir
: Falsedo_predict
: Falseeval_strategy
: noprediction_loss_only
: Trueper_device_train_batch_size
: 8per_device_eval_batch_size
: 8per_gpu_train_batch_size
: Noneper_gpu_eval_batch_size
: Nonegradient_accumulation_steps
: 1eval_accumulation_steps
: Nonelearning_rate
: 5e-05weight_decay
: 0.0adam_beta1
: 0.9adam_beta2
: 0.999adam_epsilon
: 1e-08max_grad_norm
: 1num_train_epochs
: 2max_steps
: -1lr_scheduler_type
: linearlr_scheduler_kwargs
: {}warmup_ratio
: 0.0warmup_steps
: 0log_level
: passivelog_level_replica
: warninglog_on_each_node
: Truelogging_nan_inf_filter
: Truesave_safetensors
: Truesave_on_each_node
: Falsesave_only_model
: Falserestore_callback_states_from_checkpoint
: Falseno_cuda
: Falseuse_cpu
: Falseuse_mps_device
: Falseseed
: 42data_seed
: Nonejit_mode_eval
: Falseuse_ipex
: Falsebf16
: Falsefp16
: Falsefp16_opt_level
: O1half_precision_backend
: autobf16_full_eval
: Falsefp16_full_eval
: Falsetf32
: Nonelocal_rank
: 0ddp_backend
: Nonetpu_num_cores
: Nonetpu_metrics_debug
: Falsedebug
: []dataloader_drop_last
: Falsedataloader_num_workers
: 0dataloader_prefetch_factor
: Nonepast_index
: -1disable_tqdm
: Falseremove_unused_columns
: Truelabel_names
: Noneload_best_model_at_end
: Falseignore_data_skip
: Falsefsdp
: []fsdp_min_num_params
: 0fsdp_config
: {'min_num_params': 0, 'xla': False, 'xla_fsdp_v2': False, 'xla_fsdp_grad_ckpt': False}fsdp_transformer_layer_cls_to_wrap
: Noneaccelerator_config
: {'split_batches': False, 'dispatch_batches': None, 'even_batches': True, 'use_seedable_sampler': True, 'non_blocking': False, 'gradient_accumulation_kwargs': None}deepspeed
: Nonelabel_smoothing_factor
: 0.0optim
: adamw_torchoptim_args
: Noneadafactor
: Falsegroup_by_length
: Falselength_column_name
: lengthddp_find_unused_parameters
: Noneddp_bucket_cap_mb
: Noneddp_broadcast_buffers
: Falsedataloader_pin_memory
: Truedataloader_persistent_workers
: Falseskip_memory_metrics
: Trueuse_legacy_prediction_loop
: Falsepush_to_hub
: Falseresume_from_checkpoint
: Nonehub_model_id
: Nonehub_strategy
: every_savehub_private_repo
: Falsehub_always_push
: Falsegradient_checkpointing
: Falsegradient_checkpointing_kwargs
: Noneinclude_inputs_for_metrics
: Falseeval_do_concat_batches
: Truefp16_backend
: autopush_to_hub_model_id
: Nonepush_to_hub_organization
: Nonemp_parameters
:auto_find_batch_size
: Falsefull_determinism
: Falsetorchdynamo
: Noneray_scope
: lastddp_timeout
: 1800torch_compile
: Falsetorch_compile_backend
: Nonetorch_compile_mode
: Nonedispatch_batches
: Nonesplit_batches
: Noneinclude_tokens_per_second
: Falseinclude_num_input_tokens_seen
: Falseneftune_noise_alpha
: Noneoptim_target_modules
: Nonebatch_eval_metrics
: Falseprompts
: Nonebatch_sampler
: batch_samplermulti_dataset_batch_sampler
: round_robin
Training Logs
Epoch | Step | Training Loss |
---|---|---|
0.5587 | 500 | 12.0301 |
1.1173 | 1000 | 8.503 |
1.6760 | 1500 | 8.1847 |
Framework Versions
- Python: 3.11.9
- Sentence Transformers: 4.1.0
- Transformers: 4.41.0
- PyTorch: 2.7.1+cu118
- Accelerate: 1.7.0
- Datasets: 3.6.0
- Tokenizers: 0.19.1
Citation
BibTeX
Sentence Transformers
@inproceedings{reimers-2019-sentence-bert,
title = "Sentence-BERT: Sentence Embeddings using Siamese BERT-Networks",
author = "Reimers, Nils and Gurevych, Iryna",
booktitle = "Proceedings of the 2019 Conference on Empirical Methods in Natural Language Processing",
month = "11",
year = "2019",
publisher = "Association for Computational Linguistics",
url = "https://arxiv.org/abs/1908.10084",
}
DenoisingAutoEncoderLoss
@inproceedings{wang-2021-TSDAE,
title = "TSDAE: Using Transformer-based Sequential Denoising Auto-Encoderfor Unsupervised Sentence Embedding Learning",
author = "Wang, Kexin and Reimers, Nils and Gurevych, Iryna",
booktitle = "Findings of the Association for Computational Linguistics: EMNLP 2021",
month = nov,
year = "2021",
address = "Punta Cana, Dominican Republic",
publisher = "Association for Computational Linguistics",
pages = "671--688",
url = "https://arxiv.org/abs/2104.06979",
}
- Downloads last month
- 6
Inference Providers
NEW
This model isn't deployed by any Inference Provider.
🙋
Ask for provider support
Model tree for sgt-kuraii/xlm-domain-adapted-tsdae
Base model
sgt-kuraii/xlm-domain-adapted-cosine