tags:
- generated_from_keras_callback
model-index:
- name: ’Marbert-sarcasm-detector
results: []
license: afl-3.0
language:
- ar
metrics:
- Accuracy
- F1 score
- Precision
- Recall
pipeline_tag: text-classification
widget:
- text: بعد أن حصل الطالب على شهادة الليسانس بدأ فى تحضير الماجستير.
example_title: NonSarc 01
- text: >-
بعد أن حصل على الليسانس بدأ فى تحضيرالماجستير .وبعد أن حصل على الماجستير
بدأ فى «تحضير» الشاى للزبائن.
example_title: Sarc 01
- text: ' .جمع كلمة امراءة هي كلمة نساء'
example_title: NonSarc 02
- text: .جمع كلمة امراءة هي كلمة نساء. حتى اللغة مش قادرة عليهم هههههههه
example_title: Sarc 02
- text: .للجامعة العربية موقفا كبيرا
example_title: NonSarc 03
- text: ' للجامعة العربية للانصاف موقفاَ كبيراَ !!!!! يتسع لاكثر من الف سيارة امام المبنى , هاهاها '
example_title: Sarc 03
- text: '!!هو أنت كدة عايش؟ يا بني دا أنت ميت بالحياة'
example_title: Sarc 04
- text: شهر أكتوبر ده شهر عسل بجد مبيجبش ليا فيه غير الاكتئاب كل سنه
example_title: Sarc 05
- text: ' فى ناس زى النسكافيه ثلاثة فى واحد يتكلموا معاك وعنك وعليك'
example_title: Sarc 06
- text: ' في ناس زي النسمة روحهم خفيفية و وجدهم يشرح الصدر. اهلا و سهلا بكم . اسعدنا مروركم من هنا. '
example_title: NonSarc 06
datasets:
- MohamedGalal/ArSarcasT
MARBERT Sarcasm Detector
This model is fine-tuned UBC-NLP/MARBERTv2 was finetuned on ArSarcasT corpus training dataset. It achieves the following results on the evaluation sets:
Eval Datatset | Accuracy | F1 | Precision | Recall |
---|---|---|---|---|
ArSarcasT | 0.844 | 0.735 | 0.754 | 0.718 |
iSarcasmEVAL | 0.892 | 0.633 | 0.616 | 0.650 |
ArSarcasmV2 | 0.771 | 0.561 | 0.590 | 0.534 |
Model description
Fine-tuned MARBERT-v2 model on Sarcastic tweets dataset for sarcasm detection text classification.
Intended uses & limitations
More information needed
Training and evaluation data
- Training dataset: ArSarcasT development split.
- Evaluation Datasets:
- ArSarcasm-v2 test dataset.
- iSarcasmEVAL test dataset.
- ArSarcasT test dataset.
Training procedure
Fine-tuning, 3 epochs
Training hyperparameters
The following hyperparameters were used during training:
- optimizer: None
- training_precision: float32
Training results
Framework versions
- Transformers 4.28.1
- TensorFlow 2.12.0
- Tokenizers 0.13.3
Paper Citation
If you use this fine-tuned model based on the original MARBERT model, please cite the following paper: Galal, M. A., Yousef, A. H., Zayed, H. H., & Medhat, W. (2024). Arabic sarcasm detection: An enhanced fine-tuned language model approach. Ain Shams Engineering Journal, 15(6), 102736. https://doi.org/10.1016/j.asej.2024.102736 (https://www.sciencedirect.com/science/article/pii/S2090447924001114)