🧠 Informasi

Model ini dikembangkan sebagai bagian dari tugas akhir (skripsi) dengan judul:

β€œPERBANDINGAN ALGORITMA JARO-WINKLER, BERT DAN SPACY PADA EKSTRAKSI PESAN SINGKAT WHATSAPP UNTUK MITIGASI BENCANA”
Program Studi Informatika, Fakultas Teknologi Informasi dan Sains Data,
Universitas Sebelas Maret – Tahun 2025

Penulis: Muhammad Priyo Utomo (NIM: M0518036)

Link Skripsi: https://digilib.uns.ac.id/dokumen/detail/125086/PERBANDINGAN-ALGORITMA-JARO-WINKLER-BERT-DAN-SPACY-PADA-EKSTRAKSI-PESAN-SINGKAT-WHATSAPP-UNTUK-MITIGASI-BENCANA


πŸ“„ Kode Sistem dan Dataset


πŸ“Š Hasil Pelatihan

Epoch Step Training Loss Validation Loss Precision Recall F1 Score Accuracy
1 2000 0.0001 0.000829 0.999902 0.999902 0.999902 0.999902
2 4000 0.0 0.000438 0.999926 0.999926 0.999927 0.999927
3 6000 0.0 0.000709 0.999926 0.999926 0.999927 0.999927
4 8000 0.0 0.000486 0.999926 0.999927 0.999927 0.999927

πŸ“„ Contoh Deteksi Entitas

Teks Asli:

  • tolong ada banjir di surakarta!

hasil Deteksi:

  • DISASTER: "banjir", Score: 1.0000
  • LOCATION: "surakarta", Score: 0.9998

🏷️ Tokenizer

Model ini menggunakan:

  • indobert-base-uncased dari Hugging Face Transformers.

πŸ“₯ Cara Menggunakan

from transformers import AutoTokenizer, AutoModelForTokenClassification

tokenizer = AutoTokenizer.from_pretrained("utomomuhammadpriyo/ner-pesan-singkat-laporan-bencana")
model = AutoModelForTokenClassification.from_pretrained("utomomuhammadpriyo/ner-pesan-singkat-laporan-bencana")

βš™οΈ BERT Training Configuration

Parameter Nilai
Data Used 20.000
Epoch 10
Test Size 0.2
Train Batch Size 8
Eval Batch Size 8
Weight Decay 0.001
Learning Rate 3e-5
Early Stopping Patience 3
Early Stopping Threshold 0.001

πŸ”Ή Catatan:

  • Dataset dibagi 80% untuk pelatihan dan 20% untuk validasi. Tidak digunakan test set eksplisit, meskipun label "Test Size" muncul dalam konfigurasi.

πŸ–₯️ Spesifikasi Pelatihan

Komponen Detail
Python 3.12
PyTorch 2.7.0+cu128
CPU Intel Core i5-8265U
GPU NVIDIA GeForce MX230
RAM 12 GB
OS Windows 11

Pelatihan dilakukan secara lokal.


Downloads last month
1
Safetensors
Model size
110M params
Tensor type
F32
Β·
Inference Providers NEW
This model isn't deployed by any Inference Provider. πŸ™‹ Ask for provider support

Model tree for utomomuhammadpriyo/ner-pesan-singkat-laporan-bencana

Finetuned
(381)
this model

Dataset used to train utomomuhammadpriyo/ner-pesan-singkat-laporan-bencana