Add new SentenceTransformer model
Browse files- .gitattributes +1 -0
- 1_Pooling/config.json +10 -0
- README.md +762 -0
- config.json +27 -0
- config_sentence_transformers.json +14 -0
- model.safetensors +3 -0
- modules.json +20 -0
- sentence_bert_config.json +4 -0
- sentencepiece.bpe.model +3 -0
- special_tokens_map.json +51 -0
- tokenizer.json +3 -0
- tokenizer_config.json +63 -0
.gitattributes
CHANGED
|
@@ -33,3 +33,4 @@ saved_model/**/* filter=lfs diff=lfs merge=lfs -text
|
|
| 33 |
*.zip filter=lfs diff=lfs merge=lfs -text
|
| 34 |
*.zst filter=lfs diff=lfs merge=lfs -text
|
| 35 |
*tfevents* filter=lfs diff=lfs merge=lfs -text
|
|
|
|
|
|
| 33 |
*.zip filter=lfs diff=lfs merge=lfs -text
|
| 34 |
*.zst filter=lfs diff=lfs merge=lfs -text
|
| 35 |
*tfevents* filter=lfs diff=lfs merge=lfs -text
|
| 36 |
+
tokenizer.json filter=lfs diff=lfs merge=lfs -text
|
1_Pooling/config.json
ADDED
|
@@ -0,0 +1,10 @@
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
| 1 |
+
{
|
| 2 |
+
"word_embedding_dimension": 1024,
|
| 3 |
+
"pooling_mode_cls_token": true,
|
| 4 |
+
"pooling_mode_mean_tokens": false,
|
| 5 |
+
"pooling_mode_max_tokens": false,
|
| 6 |
+
"pooling_mode_mean_sqrt_len_tokens": false,
|
| 7 |
+
"pooling_mode_weightedmean_tokens": false,
|
| 8 |
+
"pooling_mode_lasttoken": false,
|
| 9 |
+
"include_prompt": true
|
| 10 |
+
}
|
README.md
ADDED
|
@@ -0,0 +1,762 @@
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
| 1 |
+
---
|
| 2 |
+
language:
|
| 3 |
+
- vi
|
| 4 |
+
license: apache-2.0
|
| 5 |
+
tags:
|
| 6 |
+
- sentence-transformers
|
| 7 |
+
- sentence-similarity
|
| 8 |
+
- feature-extraction
|
| 9 |
+
- dense
|
| 10 |
+
- generated_from_trainer
|
| 11 |
+
- dataset_size:8494
|
| 12 |
+
- loss:MatryoshkaLoss
|
| 13 |
+
- loss:MultipleNegativesRankingLoss
|
| 14 |
+
base_model: splendor1811/BGE-base-banking-ONE-v0106
|
| 15 |
+
widget:
|
| 16 |
+
- source_sentence: Đối với sản phẩm vay tiêu dùng có tài sản bảo đảm cho các mục đích
|
| 17 |
+
khác (không phải du học), giới hạn phần trăm cho vay so với phương án tối đa là
|
| 18 |
+
bao nhiêu và vì sao ngân hàng cần quy định giới hạn này?
|
| 19 |
+
sentences:
|
| 20 |
+
- "Câu hỏi: Thời gian hoàn tiền cho KH khi nào \nTrả lời: + Thông báo trúng thưởng:\
|
| 21 |
+
\ Trong vòng 30 ngày làm việc kể từ ngày chốt dữ liệu trả thưởng hàng tháng, ACB\
|
| 22 |
+
\ công bố danh sách khách hàng thỏa điều kiện nhận thưởng lên website www.acb.com.vn\
|
| 23 |
+
\ hoặc gửi thông báo trực tiếp đến khách hàng qua ứng dụng ACB ONE hoặc qua email. \
|
| 24 |
+
\ \n+ Thời gian chi thưởng: hàng tháng, trong vòng 30 ngày làm việc kể từ ngày\
|
| 25 |
+
\ ACB gửi thông báo trúng thưởng. \n+ Hình thức chi thưởng: tiền thưởng được\
|
| 26 |
+
\ chuyển vào TKTT của KH tại ACB "
|
| 27 |
+
- 'Câu hỏi: Tỷ lệ cho vay/phương án theo sản phẩm tiêu dùng có tài sản bảo đảm được
|
| 28 |
+
quy định như thế nào?
|
| 29 |
+
|
| 30 |
+
Trả lời:- Đối với mục đích thanh toán chi phí du học, cấp hạn mức thấu chi: <
|
| 31 |
+
100% phương án.
|
| 32 |
+
|
| 33 |
+
- Đối với các mục đích vay còn lại: ≤ 90% phương án.
|
| 34 |
+
|
| 35 |
+
Công văn tham khảo: CV 140/NVQĐ-PTGPTD.25'
|
| 36 |
+
- 'Câu hỏi: NVXLN soạn, gửi thông báo thời gian, địa điểm bàn giao tài sản cho bên
|
| 37 |
+
mua tài sản và Tổ chức hành nghề đấu giá tài sản trong trường hợp bán qua đấu
|
| 38 |
+
giá trong thời hạn bao lâu?
|
| 39 |
+
|
| 40 |
+
Trả lời: 07 ngày kể từ ngày ký hợp đồng mua bán/chuyển nhượng.
|
| 41 |
+
|
| 42 |
+
Công văn tham khảo: Phần IV.2 Phụ lục 5.1 QP 7.191'
|
| 43 |
+
- source_sentence: Làm sao trình hoàn PTN ACB Privilege Visa Signature? Lập biểu mẫu
|
| 44 |
+
và mail nhận xử lý
|
| 45 |
+
sentences:
|
| 46 |
+
- "Câu hỏi: Vì sao có thông báo “Ứng dụng đã bị khóa do nhập sai mã kích hoạt 5\
|
| 47 |
+
\ lần liên tiếp”?\nTrả lời: ➔ Mỗi mã kích hoạt chỉ sử dụng 01 lần cho 01 thiết\
|
| 48 |
+
\ bị. Nếu mã kích hoạt đã được sử dụng (kích hoạt thành công) thì mã kích hoạt\
|
| 49 |
+
\ đó hết hiệu lực (tức không thể dùng lại mã kích hoạt đó trên thiết bị khác hoặc\
|
| 50 |
+
\ cho ứng dụng tải mới ngay trên thiết bị đã được kích hoạt thành công trước đó).\
|
| 51 |
+
\ \n\n➔ Khi nhập mã kích hoạt 05 lần vẫn chưa kích hoạt được (do nhập sai mã kích\
|
| 52 |
+
\ hoạt hoặc mã kích hoạt đã hết hạn hoặc mã kích hoạt đã được sử dụng), ứng dụng\
|
| 53 |
+
\ cài đặt trên thiết bị sẽ bị tạm khóa trong vòng 60 phút. Sau khi hết thời gian\
|
| 54 |
+
\ tạm khóa, KH cần sử dụng mã kích hoạt mới để kích hoạt lại ứng dụng. \n\nCông\
|
| 55 |
+
\ văn tham khảo: WI-02/NHSO - Hướng dẫn đăng ký & sử dụng dịch vụ Ngân hàng số\
|
| 56 |
+
\ (ACB ONE dành cho KHCN và ACB ONE BIZ dành cho KHDN) "
|
| 57 |
+
- 'Câu hỏi: Ai chịu trách nhiệm lập thông báo THNTH?
|
| 58 |
+
|
| 59 |
+
Trả lời: KPP.
|
| 60 |
+
|
| 61 |
+
Công văn tham khảo: Phụ lục 4 – Mục II.'
|
| 62 |
+
- 'Câu hỏi: Làm sao trình hoàn PTN ACB Privilege Visa Signature? Lập biểu mẫu và
|
| 63 |
+
mail nhận xử lý
|
| 64 |
+
|
| 65 |
+
Trả lời: Các trường hợp cần xem xét ngoại lệ PTN, đơn vị cần gửi tờ trình D1.61
|
| 66 |
+
đến chị DINH THI HOAI LINH (linhdth03@acb.com.vn) - Bp hỗ trợ bán hàng TT.PTGPTT
|
| 67 |
+
để được hỗ trợ.'
|
| 68 |
+
- source_sentence: Ai chịu trách nhiệm xác minh điều kiện về chặng bay và ai chịu
|
| 69 |
+
trách nhiệm xét duyệt tiêu chí cấp thẻ khi khách hàng yêu cầu mở thẻ tín dụng
|
| 70 |
+
qua liên kết VNA - ACB?
|
| 71 |
+
sentences:
|
| 72 |
+
- "Câu hỏi: Ưu đãi khi thanh toán tại Shopee/Xanh SM/Agoda/Grab áp dụng cho các\
|
| 73 |
+
\ loại thẻ nào? \nTrả lời: Áp dụng cho thẻ tín dụng cá nhân ACB phát hành gồm:\
|
| 74 |
+
\ Visa Infinite, Privilega Visa Signature, Visa Signature, Visa Platinum"
|
| 75 |
+
- 'Câu hỏi: Trường hợp KH được điều hướng mở thẻ ghi nợ từ APP Lotussmiles của VNA
|
| 76 |
+
nhưng KH có nhu cầu mở thẻ tín dụng thì phải như thế nào ?
|
| 77 |
+
|
| 78 |
+
Trả lời: KH cần thỏa điều kiện để được điều hướng vào luồng mở thẻ tín dụng:
|
| 79 |
+
|
| 80 |
+
- Về phía VNA: KH cần tích lũy được ít nhất 2 chặng bay xét hạng trong 12 tháng
|
| 81 |
+
gần nhất tính tới thời điểm KH mở thẻ
|
| 82 |
+
|
| 83 |
+
- Về phía ACB: KH thỏa những tiêu chí xét cấp thẻ tín dụng của ACB.'
|
| 84 |
+
- 'Câu hỏi: Khi nhận chính TSBĐ để thay thế nghĩa vụ trả nợ, áp dụng theo quy định
|
| 85 |
+
nào?
|
| 86 |
+
|
| 87 |
+
Trả lời: Theo “Quy định về nhận chuyển nhượng TSBĐ là bất động sản để xử lý nợ
|
| 88 |
+
của ACB”. Các trường hợp không được hướng dẫn tại “Quy định v/v nhận chuyển nhượng
|
| 89 |
+
TSBĐ là bất động sản để xử lý nợ của ACB” thì thực hiện theo Phụ lục Thứ tự thu
|
| 90 |
+
nợ của “Quy định về việc tổ chức hoạt động quả lý, giám sát và xử lý nợ tại ACB”.
|
| 91 |
+
|
| 92 |
+
Công văn tham khảo: Phụ lục 5 – Mục II.2.'
|
| 93 |
+
- source_sentence: Trường hợp cần miễn giảm hoặc điều chỉnh phí bảo lãnh vượt quá
|
| 94 |
+
giới hạn 50% do TĐV quy định, ai là người có thẩm quyền quyết định và quy trình
|
| 95 |
+
cần thực hiện?
|
| 96 |
+
sentences:
|
| 97 |
+
- 'Câu hỏi: Đối với các giấy tờ là bản sao do cơ quan có thẩm quyền cấp (như Giấy
|
| 98 |
+
khai sinh …) nhưng KH không giao cho ngân hàng giữ các bản sao này thì NVNV có
|
| 99 |
+
thể photo và lưu trữ bản photo này không?
|
| 100 |
+
|
| 101 |
+
Trả lời: Có thể thực hiện. Nhân viên được có thể photo, đóng dấu “đã đối chiếu
|
| 102 |
+
bản chính, ký xác nhận trên bản photo và lưu giữ theo quy định hiện hành. '
|
| 103 |
+
- 'Câu hỏi: Đơn vị nào có trách nhiệm tổ chức thực hiện “Quy định về việc tổ chức
|
| 104 |
+
hoạt động quản lý, giám sát và xử lý nợ”?
|
| 105 |
+
|
| 106 |
+
Trả lời: P.QLN, ACBL, Khối Vận hành, Khối Quản trị Nguồn nhân lực, các đơn vị
|
| 107 |
+
hội sở, Trưởng Cụm, TĐV KPP.
|
| 108 |
+
|
| 109 |
+
Công văn tham khảo: Điều 8 – Tổ chức thực hiện.'
|
| 110 |
+
- 'Câu hỏi: TĐV có thẩm quyền duyệt phí bảo lãnh không?
|
| 111 |
+
|
| 112 |
+
Trả lời: TĐV có thẩm quyền duyệt phí bảo lãnh tín chấp tối đa 50% và mức phí
|
| 113 |
+
tối thiểu tối đa 50%
|
| 114 |
+
|
| 115 |
+
Công văn tham khảo: Phụ lục 6, Thẩm quyền miễn giảm phí dịch vụ cua TĐV, CV 183'
|
| 116 |
+
- source_sentence: KPP phải gửi thông báo chuyển nợ quá hạn đối với khoản vay trong
|
| 117 |
+
bao lâu?
|
| 118 |
+
sentences:
|
| 119 |
+
- 'Câu hỏi: Trường hợp TS tọa lạc địa bàn BP. Cao Thắng thuộc QH đất văn phòng,
|
| 120 |
+
đất phức hợp chức năng khách sạn nhưng được cấp GPXD kiên cố/ hoàn công trên GCN
|
| 121 |
+
thì có xem như phù hợp quy hoạch không? Ứng xử như thế nào?
|
| 122 |
+
|
| 123 |
+
Trả lời: - Trường hợp TS thuộc QH đất văn phòng, đất phức hợp chức năng khách
|
| 124 |
+
sạn nhưng được cấp GPXD kiên cố/ hoàn công trên GCN được xem như thỏa điều kiện
|
| 125 |
+
quy hoạch.
|
| 126 |
+
|
| 127 |
+
- NVĐG ứng xử theo các tỷ lệ định giá theo quy định tại PL 2.1, 3.1, 4.1 – WI-02/ĐGTS '
|
| 128 |
+
- 'Câu hỏi: KPP phải gửi thông báo chuyển nợ quá hạn đối với khoản vay trong bao
|
| 129 |
+
lâu?
|
| 130 |
+
|
| 131 |
+
Trả lời: Trong vòng 07 ngày kể từ ngày khoản vay bị chuyển nợ quá hạn.
|
| 132 |
+
|
| 133 |
+
Công văn tham khảo: Phụ lục 4 – Mục I – QF-06a/QLN.'
|
| 134 |
+
- 'Câu hỏi: Khách hàng có nhu cầu phát hành dàn xếp tín dụng mẫu thư thể hiện nội
|
| 135 |
+
dung: " số tiền tối thiểu: ...." có được không?
|
| 136 |
+
|
| 137 |
+
Trả lời: Không được. Tuyệt đối không thể hiện số tiền tối thiểu.
|
| 138 |
+
|
| 139 |
+
Công văn tham khảo: CV 68- Quy định dàn xếp tín dụng'
|
| 140 |
+
pipeline_tag: sentence-similarity
|
| 141 |
+
library_name: sentence-transformers
|
| 142 |
+
metrics:
|
| 143 |
+
- cosine_accuracy@1
|
| 144 |
+
- cosine_accuracy@3
|
| 145 |
+
- cosine_accuracy@5
|
| 146 |
+
- cosine_accuracy@10
|
| 147 |
+
- cosine_precision@1
|
| 148 |
+
- cosine_precision@3
|
| 149 |
+
- cosine_precision@5
|
| 150 |
+
- cosine_precision@10
|
| 151 |
+
- cosine_recall@1
|
| 152 |
+
- cosine_recall@3
|
| 153 |
+
- cosine_recall@5
|
| 154 |
+
- cosine_recall@10
|
| 155 |
+
- cosine_ndcg@10
|
| 156 |
+
- cosine_mrr@10
|
| 157 |
+
- cosine_map@100
|
| 158 |
+
model-index:
|
| 159 |
+
- name: BGE-qa-internal
|
| 160 |
+
results:
|
| 161 |
+
- task:
|
| 162 |
+
type: information-retrieval
|
| 163 |
+
name: Information Retrieval
|
| 164 |
+
dataset:
|
| 165 |
+
name: dim 1024
|
| 166 |
+
type: dim_1024
|
| 167 |
+
metrics:
|
| 168 |
+
- type: cosine_accuracy@1
|
| 169 |
+
value: 0.8839285714285714
|
| 170 |
+
name: Cosine Accuracy@1
|
| 171 |
+
- type: cosine_accuracy@3
|
| 172 |
+
value: 0.8950892857142857
|
| 173 |
+
name: Cosine Accuracy@3
|
| 174 |
+
- type: cosine_accuracy@5
|
| 175 |
+
value: 0.8950892857142857
|
| 176 |
+
name: Cosine Accuracy@5
|
| 177 |
+
- type: cosine_accuracy@10
|
| 178 |
+
value: 0.9598214285714286
|
| 179 |
+
name: Cosine Accuracy@10
|
| 180 |
+
- type: cosine_precision@1
|
| 181 |
+
value: 0.8839285714285714
|
| 182 |
+
name: Cosine Precision@1
|
| 183 |
+
- type: cosine_precision@3
|
| 184 |
+
value: 0.8876488095238095
|
| 185 |
+
name: Cosine Precision@3
|
| 186 |
+
- type: cosine_precision@5
|
| 187 |
+
value: 0.885267857142857
|
| 188 |
+
name: Cosine Precision@5
|
| 189 |
+
- type: cosine_precision@10
|
| 190 |
+
value: 0.5591517857142856
|
| 191 |
+
name: Cosine Precision@10
|
| 192 |
+
- type: cosine_recall@1
|
| 193 |
+
value: 0.14732142857142858
|
| 194 |
+
name: Cosine Recall@1
|
| 195 |
+
- type: cosine_recall@3
|
| 196 |
+
value: 0.44382440476190477
|
| 197 |
+
name: Cosine Recall@3
|
| 198 |
+
- type: cosine_recall@5
|
| 199 |
+
value: 0.7377232142857143
|
| 200 |
+
name: Cosine Recall@5
|
| 201 |
+
- type: cosine_recall@10
|
| 202 |
+
value: 0.9319196428571429
|
| 203 |
+
name: Cosine Recall@10
|
| 204 |
+
- type: cosine_ndcg@10
|
| 205 |
+
value: 0.9115070587354593
|
| 206 |
+
name: Cosine Ndcg@10
|
| 207 |
+
- type: cosine_mrr@10
|
| 208 |
+
value: 0.8983843537414969
|
| 209 |
+
name: Cosine Mrr@10
|
| 210 |
+
- type: cosine_map@100
|
| 211 |
+
value: 0.914890645990526
|
| 212 |
+
name: Cosine Map@100
|
| 213 |
+
- task:
|
| 214 |
+
type: information-retrieval
|
| 215 |
+
name: Information Retrieval
|
| 216 |
+
dataset:
|
| 217 |
+
name: dim 768
|
| 218 |
+
type: dim_768
|
| 219 |
+
metrics:
|
| 220 |
+
- type: cosine_accuracy@1
|
| 221 |
+
value: 0.8839285714285714
|
| 222 |
+
name: Cosine Accuracy@1
|
| 223 |
+
- type: cosine_accuracy@3
|
| 224 |
+
value: 0.8928571428571429
|
| 225 |
+
name: Cosine Accuracy@3
|
| 226 |
+
- type: cosine_accuracy@5
|
| 227 |
+
value: 0.8950892857142857
|
| 228 |
+
name: Cosine Accuracy@5
|
| 229 |
+
- type: cosine_accuracy@10
|
| 230 |
+
value: 0.9553571428571429
|
| 231 |
+
name: Cosine Accuracy@10
|
| 232 |
+
- type: cosine_precision@1
|
| 233 |
+
value: 0.8839285714285714
|
| 234 |
+
name: Cosine Precision@1
|
| 235 |
+
- type: cosine_precision@3
|
| 236 |
+
value: 0.8869047619047619
|
| 237 |
+
name: Cosine Precision@3
|
| 238 |
+
- type: cosine_precision@5
|
| 239 |
+
value: 0.884375
|
| 240 |
+
name: Cosine Precision@5
|
| 241 |
+
- type: cosine_precision@10
|
| 242 |
+
value: 0.557142857142857
|
| 243 |
+
name: Cosine Precision@10
|
| 244 |
+
- type: cosine_recall@1
|
| 245 |
+
value: 0.14732142857142858
|
| 246 |
+
name: Cosine Recall@1
|
| 247 |
+
- type: cosine_recall@3
|
| 248 |
+
value: 0.44345238095238093
|
| 249 |
+
name: Cosine Recall@3
|
| 250 |
+
- type: cosine_recall@5
|
| 251 |
+
value: 0.7369791666666667
|
| 252 |
+
name: Cosine Recall@5
|
| 253 |
+
- type: cosine_recall@10
|
| 254 |
+
value: 0.9285714285714286
|
| 255 |
+
name: Cosine Recall@10
|
| 256 |
+
- type: cosine_ndcg@10
|
| 257 |
+
value: 0.9094041503391372
|
| 258 |
+
name: Cosine Ndcg@10
|
| 259 |
+
- type: cosine_mrr@10
|
| 260 |
+
value: 0.8970769557823133
|
| 261 |
+
name: Cosine Mrr@10
|
| 262 |
+
- type: cosine_map@100
|
| 263 |
+
value: 0.9136403091385706
|
| 264 |
+
name: Cosine Map@100
|
| 265 |
+
---
|
| 266 |
+
|
| 267 |
+
# BGE-qa-internal
|
| 268 |
+
|
| 269 |
+
This is a [sentence-transformers](https://www.SBERT.net) model finetuned from [splendor1811/BGE-base-banking-ONE-v0106](https://huggingface.co/splendor1811/BGE-base-banking-ONE-v0106) on the json dataset. It maps sentences & paragraphs to a 1024-dimensional dense vector space and can be used for semantic textual similarity, semantic search, paraphrase mining, text classification, clustering, and more.
|
| 270 |
+
|
| 271 |
+
## Model Details
|
| 272 |
+
|
| 273 |
+
### Model Description
|
| 274 |
+
- **Model Type:** Sentence Transformer
|
| 275 |
+
- **Base model:** [splendor1811/BGE-base-banking-ONE-v0106](https://huggingface.co/splendor1811/BGE-base-banking-ONE-v0106) <!-- at revision 9c233176fc7eb592572824ebb465bbe59997a308 -->
|
| 276 |
+
- **Maximum Sequence Length:** 8192 tokens
|
| 277 |
+
- **Output Dimensionality:** 1024 dimensions
|
| 278 |
+
- **Similarity Function:** Cosine Similarity
|
| 279 |
+
- **Training Dataset:**
|
| 280 |
+
- json
|
| 281 |
+
- **Language:** vi
|
| 282 |
+
- **License:** apache-2.0
|
| 283 |
+
|
| 284 |
+
### Model Sources
|
| 285 |
+
|
| 286 |
+
- **Documentation:** [Sentence Transformers Documentation](https://sbert.net)
|
| 287 |
+
- **Repository:** [Sentence Transformers on GitHub](https://github.com/UKPLab/sentence-transformers)
|
| 288 |
+
- **Hugging Face:** [Sentence Transformers on Hugging Face](https://huggingface.co/models?library=sentence-transformers)
|
| 289 |
+
|
| 290 |
+
### Full Model Architecture
|
| 291 |
+
|
| 292 |
+
```
|
| 293 |
+
SentenceTransformer(
|
| 294 |
+
(0): Transformer({'max_seq_length': 8192, 'do_lower_case': False, 'architecture': 'XLMRobertaModel'})
|
| 295 |
+
(1): Pooling({'word_embedding_dimension': 1024, 'pooling_mode_cls_token': True, 'pooling_mode_mean_tokens': False, 'pooling_mode_max_tokens': False, 'pooling_mode_mean_sqrt_len_tokens': False, 'pooling_mode_weightedmean_tokens': False, 'pooling_mode_lasttoken': False, 'include_prompt': True})
|
| 296 |
+
(2): Normalize()
|
| 297 |
+
)
|
| 298 |
+
```
|
| 299 |
+
|
| 300 |
+
## Usage
|
| 301 |
+
|
| 302 |
+
### Direct Usage (Sentence Transformers)
|
| 303 |
+
|
| 304 |
+
First install the Sentence Transformers library:
|
| 305 |
+
|
| 306 |
+
```bash
|
| 307 |
+
pip install -U sentence-transformers
|
| 308 |
+
```
|
| 309 |
+
|
| 310 |
+
Then you can load this model and run inference.
|
| 311 |
+
```python
|
| 312 |
+
from sentence_transformers import SentenceTransformer
|
| 313 |
+
|
| 314 |
+
# Download from the 🤗 Hub
|
| 315 |
+
model = SentenceTransformer("splendor1811/BGE-qa-internal")
|
| 316 |
+
# Run inference
|
| 317 |
+
sentences = [
|
| 318 |
+
'KPP phải gửi thông báo chuyển nợ quá hạn đối với khoản vay trong bao lâu?',
|
| 319 |
+
'Câu hỏi: KPP phải gửi thông báo chuyển nợ quá hạn đối với khoản vay trong bao lâu?\nTrả lời: Trong vòng 07 ngày kể từ ngày khoản vay bị chuyển nợ quá hạn.\nCông văn tham khảo: Phụ lục 4 – Mục I – QF-06a/QLN.',
|
| 320 |
+
'Câu hỏi: Khách hàng có nhu cầu phát hành dàn xếp tín dụng mẫu thư thể hiện nội dung: " số tiền tối thiểu: ...." có được không?\nTrả lời: Không được. Tuyệt đối không thể hiện số tiền tối thiểu.\nCông văn tham khảo: CV 68- Quy định dàn xếp tín dụng',
|
| 321 |
+
]
|
| 322 |
+
embeddings = model.encode(sentences)
|
| 323 |
+
print(embeddings.shape)
|
| 324 |
+
# [3, 1024]
|
| 325 |
+
|
| 326 |
+
# Get the similarity scores for the embeddings
|
| 327 |
+
similarities = model.similarity(embeddings, embeddings)
|
| 328 |
+
print(similarities)
|
| 329 |
+
# tensor([[1.0000, 0.8849, 0.0306],
|
| 330 |
+
# [0.8849, 1.0000, 0.0400],
|
| 331 |
+
# [0.0306, 0.0400, 1.0000]])
|
| 332 |
+
```
|
| 333 |
+
|
| 334 |
+
<!--
|
| 335 |
+
### Direct Usage (Transformers)
|
| 336 |
+
|
| 337 |
+
<details><summary>Click to see the direct usage in Transformers</summary>
|
| 338 |
+
|
| 339 |
+
</details>
|
| 340 |
+
-->
|
| 341 |
+
|
| 342 |
+
<!--
|
| 343 |
+
### Downstream Usage (Sentence Transformers)
|
| 344 |
+
|
| 345 |
+
You can finetune this model on your own dataset.
|
| 346 |
+
|
| 347 |
+
<details><summary>Click to expand</summary>
|
| 348 |
+
|
| 349 |
+
</details>
|
| 350 |
+
-->
|
| 351 |
+
|
| 352 |
+
<!--
|
| 353 |
+
### Out-of-Scope Use
|
| 354 |
+
|
| 355 |
+
*List how the model may foreseeably be misused and address what users ought not to do with the model.*
|
| 356 |
+
-->
|
| 357 |
+
|
| 358 |
+
## Evaluation
|
| 359 |
+
|
| 360 |
+
### Metrics
|
| 361 |
+
|
| 362 |
+
#### Information Retrieval
|
| 363 |
+
|
| 364 |
+
* Dataset: `dim_1024`
|
| 365 |
+
* Evaluated with [<code>InformationRetrievalEvaluator</code>](https://sbert.net/docs/package_reference/sentence_transformer/evaluation.html#sentence_transformers.evaluation.InformationRetrievalEvaluator) with these parameters:
|
| 366 |
+
```json
|
| 367 |
+
{
|
| 368 |
+
"truncate_dim": 1024
|
| 369 |
+
}
|
| 370 |
+
```
|
| 371 |
+
|
| 372 |
+
| Metric | Value |
|
| 373 |
+
|:--------------------|:-----------|
|
| 374 |
+
| cosine_accuracy@1 | 0.8839 |
|
| 375 |
+
| cosine_accuracy@3 | 0.8951 |
|
| 376 |
+
| cosine_accuracy@5 | 0.8951 |
|
| 377 |
+
| cosine_accuracy@10 | 0.9598 |
|
| 378 |
+
| cosine_precision@1 | 0.8839 |
|
| 379 |
+
| cosine_precision@3 | 0.8876 |
|
| 380 |
+
| cosine_precision@5 | 0.8853 |
|
| 381 |
+
| cosine_precision@10 | 0.5592 |
|
| 382 |
+
| cosine_recall@1 | 0.1473 |
|
| 383 |
+
| cosine_recall@3 | 0.4438 |
|
| 384 |
+
| cosine_recall@5 | 0.7377 |
|
| 385 |
+
| cosine_recall@10 | 0.9319 |
|
| 386 |
+
| **cosine_ndcg@10** | **0.9115** |
|
| 387 |
+
| cosine_mrr@10 | 0.8984 |
|
| 388 |
+
| cosine_map@100 | 0.9149 |
|
| 389 |
+
|
| 390 |
+
#### Information Retrieval
|
| 391 |
+
|
| 392 |
+
* Dataset: `dim_768`
|
| 393 |
+
* Evaluated with [<code>InformationRetrievalEvaluator</code>](https://sbert.net/docs/package_reference/sentence_transformer/evaluation.html#sentence_transformers.evaluation.InformationRetrievalEvaluator) with these parameters:
|
| 394 |
+
```json
|
| 395 |
+
{
|
| 396 |
+
"truncate_dim": 768
|
| 397 |
+
}
|
| 398 |
+
```
|
| 399 |
+
|
| 400 |
+
| Metric | Value |
|
| 401 |
+
|:--------------------|:-----------|
|
| 402 |
+
| cosine_accuracy@1 | 0.8839 |
|
| 403 |
+
| cosine_accuracy@3 | 0.8929 |
|
| 404 |
+
| cosine_accuracy@5 | 0.8951 |
|
| 405 |
+
| cosine_accuracy@10 | 0.9554 |
|
| 406 |
+
| cosine_precision@1 | 0.8839 |
|
| 407 |
+
| cosine_precision@3 | 0.8869 |
|
| 408 |
+
| cosine_precision@5 | 0.8844 |
|
| 409 |
+
| cosine_precision@10 | 0.5571 |
|
| 410 |
+
| cosine_recall@1 | 0.1473 |
|
| 411 |
+
| cosine_recall@3 | 0.4435 |
|
| 412 |
+
| cosine_recall@5 | 0.737 |
|
| 413 |
+
| cosine_recall@10 | 0.9286 |
|
| 414 |
+
| **cosine_ndcg@10** | **0.9094** |
|
| 415 |
+
| cosine_mrr@10 | 0.8971 |
|
| 416 |
+
| cosine_map@100 | 0.9136 |
|
| 417 |
+
|
| 418 |
+
<!--
|
| 419 |
+
## Bias, Risks and Limitations
|
| 420 |
+
|
| 421 |
+
*What are the known or foreseeable issues stemming from this model? You could also flag here known failure cases or weaknesses of the model.*
|
| 422 |
+
-->
|
| 423 |
+
|
| 424 |
+
<!--
|
| 425 |
+
### Recommendations
|
| 426 |
+
|
| 427 |
+
*What are recommendations with respect to the foreseeable issues? For example, filtering explicit content.*
|
| 428 |
+
-->
|
| 429 |
+
|
| 430 |
+
## Training Details
|
| 431 |
+
|
| 432 |
+
### Training Dataset
|
| 433 |
+
|
| 434 |
+
#### json
|
| 435 |
+
|
| 436 |
+
* Dataset: json
|
| 437 |
+
* Size: 8,494 training samples
|
| 438 |
+
* Columns: <code>anchor</code> and <code>positive</code>
|
| 439 |
+
* Approximate statistics based on the first 1000 samples:
|
| 440 |
+
| | anchor | positive |
|
| 441 |
+
|:--------|:------------------------------------------------------------------------------------|:--------------------------------------------------------------------------------------|
|
| 442 |
+
| type | string | string |
|
| 443 |
+
| details | <ul><li>min: 10 tokens</li><li>mean: 47.17 tokens</li><li>max: 569 tokens</li></ul> | <ul><li>min: 24 tokens</li><li>mean: 145.25 tokens</li><li>max: 1253 tokens</li></ul> |
|
| 444 |
+
* Samples:
|
| 445 |
+
| anchor | positive |
|
| 446 |
+
|:--------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------|:---------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------|
|
| 447 |
+
| <code>Khi nhân viên ngân hàng hướng dẫn khách hàng cá nhân đăng ký biến động số dư từ 50.000 đồng, họ cần giải thích rõ thành phần [Số GTTT] trong cú pháp. Hãy mô tả những loại giấy tờ hợp lệ phù hợp với [Số GTTT].</code> | <code>Câu hỏi: Cú pháp đăng ký nhận thông báo biến động số dư từ 50.000 đồng trở lên là gì? <br>Trả lời: Cá nhân: ACB SMSCN50 [Số GTTT]; <br><br>Doanh nghiệp: ACB SMSDN50 [Mã số thuế/Giấy phép thành lập]; Gửi đến đầu số 997. <br><br>Công văn tham khảo: WI-01/NHS - V/v Hướng dẫn đăng ký và sử dụng dịch vụ ACB - SMS Banking </code> |
|
| 448 |
+
| <code>Theo Pháp lệnh ngoại hối 28/2005/PL-UBTVQH11 và Thông tư 20/2022/TT-NHNN của NHNN cho phép người cư trú là công dân Việt Nam được chuyển tiền cho mục đích học tập tuy nhiên chưa quy định rõ về hình thức học tập online. Theo QĐ số 09/QĐ-HHNN - Bộ quy tắc của HHNN có hướng dẫn các chi phí trước khi được cơ sở đào tạo nước ngoài chấp nhận nhập học (phí tư vấn du học, phí xử lý hồ sơ xin nhập học…), học phí cho các khóa học online ở nước ngoài là chi phí nhập khẩu dịch vụ. <br>Câu hỏi: <br>Các chi phí liên quan được đề cập bên trên có thể được hiểu là thanh toán liên quan học tập/phí, lệ phí hay hiểu thế nào cho đúng. <br> </code> | <code>Câu hỏi: Theo Pháp lệnh ngoại hối 28/2005/PL-UBTVQH11 và Thông tư 20/2022/TT-NHNN của NHNN cho phép người cư trú là công dân Việt Nam được chuyển tiền cho mục đích học tập tuy nhiên chưa quy định rõ về hình thức học tập online. Theo QĐ số 09/QĐ-HHNN - Bộ quy tắc của HHNN có hướng dẫn các chi phí trước khi được cơ sở đào tạo nước ngoài chấp nhận nhập học (phí tư vấn du học, phí xử lý hồ sơ xin nhập học…), học phí cho các khóa học online ở nước ngoài là chi phí nhập khẩu dịch vụ. <br>Câu hỏi: <br>Các chi phí liên quan được đề cập bên trên có thể được hiểu là thanh toán liên quan học tập/phí, lệ phí hay hiểu thế nào cho đúng. <br> <br>Trả lời: Căn cứ các quy định pháp luật có liên quan (Pháp lệnh ngoại hối, Nghị định 70/2014/NĐ-CP, Thông tư 20/2022/TT-NHNN), không có quy định cụ thể về các khoản chi phí liên quan đến các khóa học online ở nước ngoài. Về nguyên tắc, (i) học tập là phải ra nước ngoài/tham gia khóa học tại cơ sở đào tạo nước ngoài; (ii) thanh toán phí/lệ phí thì Người thụ hưởng phải...</code> |
|
| 449 |
+
| <code>So sánh hiệu quả và rủi ro khi sử dụng phương tiện truyền thông đại chúng (internet, báo chí, truyền hình, mạng xã hội) so với hình thức đề xuất nội bộ (nhân viên, KPP, Ban lãnh đạo) trong việc tìm nhà thầu thuê ngoài.</code> | <code>Câu hỏi: Các kênh nào được sử dụng để tìm kiếm đối tác thuê ngoài?<br>Trả lời: Phương tiện truyền thông (internet, báo chí, truyền hình, phát thanh, mạng xã hội,…). Sự giới thiệu, đề xuất của nhân viên XLN, KPP, Đơn vị Hội sở, Ban lãnh đạo,…<br>Công văn tham khảo: Mục II Phụ lục 7 QP 7.191</code> |
|
| 450 |
+
* Loss: [<code>MatryoshkaLoss</code>](https://sbert.net/docs/package_reference/sentence_transformer/losses.html#matryoshkaloss) with these parameters:
|
| 451 |
+
```json
|
| 452 |
+
{
|
| 453 |
+
"loss": "MultipleNegativesRankingLoss",
|
| 454 |
+
"matryoshka_dims": [
|
| 455 |
+
1024,
|
| 456 |
+
768
|
| 457 |
+
],
|
| 458 |
+
"matryoshka_weights": [
|
| 459 |
+
1,
|
| 460 |
+
1
|
| 461 |
+
],
|
| 462 |
+
"n_dims_per_step": -1
|
| 463 |
+
}
|
| 464 |
+
```
|
| 465 |
+
|
| 466 |
+
### Training Hyperparameters
|
| 467 |
+
#### Non-Default Hyperparameters
|
| 468 |
+
|
| 469 |
+
- `eval_strategy`: epoch
|
| 470 |
+
- `gradient_accumulation_steps`: 8
|
| 471 |
+
- `learning_rate`: 2e-05
|
| 472 |
+
- `num_train_epochs`: 6
|
| 473 |
+
- `lr_scheduler_type`: cosine
|
| 474 |
+
- `warmup_ratio`: 0.1
|
| 475 |
+
- `bf16`: True
|
| 476 |
+
- `tf32`: False
|
| 477 |
+
- `load_best_model_at_end`: True
|
| 478 |
+
- `batch_sampler`: no_duplicates
|
| 479 |
+
|
| 480 |
+
#### All Hyperparameters
|
| 481 |
+
<details><summary>Click to expand</summary>
|
| 482 |
+
|
| 483 |
+
- `overwrite_output_dir`: False
|
| 484 |
+
- `do_predict`: False
|
| 485 |
+
- `eval_strategy`: epoch
|
| 486 |
+
- `prediction_loss_only`: True
|
| 487 |
+
- `per_device_train_batch_size`: 8
|
| 488 |
+
- `per_device_eval_batch_size`: 8
|
| 489 |
+
- `per_gpu_train_batch_size`: None
|
| 490 |
+
- `per_gpu_eval_batch_size`: None
|
| 491 |
+
- `gradient_accumulation_steps`: 8
|
| 492 |
+
- `eval_accumulation_steps`: None
|
| 493 |
+
- `torch_empty_cache_steps`: None
|
| 494 |
+
- `learning_rate`: 2e-05
|
| 495 |
+
- `weight_decay`: 0.0
|
| 496 |
+
- `adam_beta1`: 0.9
|
| 497 |
+
- `adam_beta2`: 0.999
|
| 498 |
+
- `adam_epsilon`: 1e-08
|
| 499 |
+
- `max_grad_norm`: 1.0
|
| 500 |
+
- `num_train_epochs`: 6
|
| 501 |
+
- `max_steps`: -1
|
| 502 |
+
- `lr_scheduler_type`: cosine
|
| 503 |
+
- `lr_scheduler_kwargs`: {}
|
| 504 |
+
- `warmup_ratio`: 0.1
|
| 505 |
+
- `warmup_steps`: 0
|
| 506 |
+
- `log_level`: passive
|
| 507 |
+
- `log_level_replica`: warning
|
| 508 |
+
- `log_on_each_node`: True
|
| 509 |
+
- `logging_nan_inf_filter`: True
|
| 510 |
+
- `save_safetensors`: True
|
| 511 |
+
- `save_on_each_node`: False
|
| 512 |
+
- `save_only_model`: False
|
| 513 |
+
- `restore_callback_states_from_checkpoint`: False
|
| 514 |
+
- `no_cuda`: False
|
| 515 |
+
- `use_cpu`: False
|
| 516 |
+
- `use_mps_device`: False
|
| 517 |
+
- `seed`: 42
|
| 518 |
+
- `data_seed`: None
|
| 519 |
+
- `jit_mode_eval`: False
|
| 520 |
+
- `bf16`: True
|
| 521 |
+
- `fp16`: False
|
| 522 |
+
- `fp16_opt_level`: O1
|
| 523 |
+
- `half_precision_backend`: auto
|
| 524 |
+
- `bf16_full_eval`: False
|
| 525 |
+
- `fp16_full_eval`: False
|
| 526 |
+
- `tf32`: False
|
| 527 |
+
- `local_rank`: 0
|
| 528 |
+
- `ddp_backend`: None
|
| 529 |
+
- `tpu_num_cores`: None
|
| 530 |
+
- `tpu_metrics_debug`: False
|
| 531 |
+
- `debug`: []
|
| 532 |
+
- `dataloader_drop_last`: False
|
| 533 |
+
- `dataloader_num_workers`: 0
|
| 534 |
+
- `dataloader_prefetch_factor`: None
|
| 535 |
+
- `past_index`: -1
|
| 536 |
+
- `disable_tqdm`: False
|
| 537 |
+
- `remove_unused_columns`: True
|
| 538 |
+
- `label_names`: None
|
| 539 |
+
- `load_best_model_at_end`: True
|
| 540 |
+
- `ignore_data_skip`: False
|
| 541 |
+
- `fsdp`: []
|
| 542 |
+
- `fsdp_min_num_params`: 0
|
| 543 |
+
- `fsdp_config`: {'min_num_params': 0, 'xla': False, 'xla_fsdp_v2': False, 'xla_fsdp_grad_ckpt': False}
|
| 544 |
+
- `fsdp_transformer_layer_cls_to_wrap`: None
|
| 545 |
+
- `accelerator_config`: {'split_batches': False, 'dispatch_batches': None, 'even_batches': True, 'use_seedable_sampler': True, 'non_blocking': False, 'gradient_accumulation_kwargs': None}
|
| 546 |
+
- `parallelism_config`: None
|
| 547 |
+
- `deepspeed`: None
|
| 548 |
+
- `label_smoothing_factor`: 0.0
|
| 549 |
+
- `optim`: adamw_torch_fused
|
| 550 |
+
- `optim_args`: None
|
| 551 |
+
- `adafactor`: False
|
| 552 |
+
- `group_by_length`: False
|
| 553 |
+
- `length_column_name`: length
|
| 554 |
+
- `project`: huggingface
|
| 555 |
+
- `trackio_space_id`: trackio
|
| 556 |
+
- `ddp_find_unused_parameters`: None
|
| 557 |
+
- `ddp_bucket_cap_mb`: None
|
| 558 |
+
- `ddp_broadcast_buffers`: False
|
| 559 |
+
- `dataloader_pin_memory`: True
|
| 560 |
+
- `dataloader_persistent_workers`: False
|
| 561 |
+
- `skip_memory_metrics`: True
|
| 562 |
+
- `use_legacy_prediction_loop`: False
|
| 563 |
+
- `push_to_hub`: False
|
| 564 |
+
- `resume_from_checkpoint`: None
|
| 565 |
+
- `hub_model_id`: None
|
| 566 |
+
- `hub_strategy`: every_save
|
| 567 |
+
- `hub_private_repo`: None
|
| 568 |
+
- `hub_always_push`: False
|
| 569 |
+
- `hub_revision`: None
|
| 570 |
+
- `gradient_checkpointing`: False
|
| 571 |
+
- `gradient_checkpointing_kwargs`: None
|
| 572 |
+
- `include_inputs_for_metrics`: False
|
| 573 |
+
- `include_for_metrics`: []
|
| 574 |
+
- `eval_do_concat_batches`: True
|
| 575 |
+
- `fp16_backend`: auto
|
| 576 |
+
- `push_to_hub_model_id`: None
|
| 577 |
+
- `push_to_hub_organization`: None
|
| 578 |
+
- `mp_parameters`:
|
| 579 |
+
- `auto_find_batch_size`: False
|
| 580 |
+
- `full_determinism`: False
|
| 581 |
+
- `torchdynamo`: None
|
| 582 |
+
- `ray_scope`: last
|
| 583 |
+
- `ddp_timeout`: 1800
|
| 584 |
+
- `torch_compile`: False
|
| 585 |
+
- `torch_compile_backend`: None
|
| 586 |
+
- `torch_compile_mode`: None
|
| 587 |
+
- `include_tokens_per_second`: False
|
| 588 |
+
- `include_num_input_tokens_seen`: no
|
| 589 |
+
- `neftune_noise_alpha`: None
|
| 590 |
+
- `optim_target_modules`: None
|
| 591 |
+
- `batch_eval_metrics`: False
|
| 592 |
+
- `eval_on_start`: False
|
| 593 |
+
- `use_liger_kernel`: False
|
| 594 |
+
- `liger_kernel_config`: None
|
| 595 |
+
- `eval_use_gather_object`: False
|
| 596 |
+
- `average_tokens_across_devices`: True
|
| 597 |
+
- `prompts`: None
|
| 598 |
+
- `batch_sampler`: no_duplicates
|
| 599 |
+
- `multi_dataset_batch_sampler`: proportional
|
| 600 |
+
- `router_mapping`: {}
|
| 601 |
+
- `learning_rate_mapping`: {}
|
| 602 |
+
|
| 603 |
+
</details>
|
| 604 |
+
|
| 605 |
+
### Training Logs
|
| 606 |
+
| Epoch | Step | Training Loss | dim_1024_cosine_ndcg@10 | dim_768_cosine_ndcg@10 |
|
| 607 |
+
|:-------:|:-------:|:-------------:|:-----------------------:|:----------------------:|
|
| 608 |
+
| 0.0753 | 10 | 0.0651 | - | - |
|
| 609 |
+
| 0.1507 | 20 | 0.0414 | - | - |
|
| 610 |
+
| 0.2260 | 30 | 0.0323 | - | - |
|
| 611 |
+
| 0.3013 | 40 | 0.0265 | - | - |
|
| 612 |
+
| 0.3766 | 50 | 0.0511 | - | - |
|
| 613 |
+
| 0.4520 | 60 | 0.023 | - | - |
|
| 614 |
+
| 0.5273 | 70 | 0.0309 | - | - |
|
| 615 |
+
| 0.6026 | 80 | 0.0241 | - | - |
|
| 616 |
+
| 0.6780 | 90 | 0.0405 | - | - |
|
| 617 |
+
| 0.7533 | 100 | 0.0276 | - | - |
|
| 618 |
+
| 0.8286 | 110 | 0.0096 | - | - |
|
| 619 |
+
| 0.9040 | 120 | 0.042 | - | - |
|
| 620 |
+
| 0.9793 | 130 | 0.025 | - | - |
|
| 621 |
+
| 1.0 | 133 | - | 0.9036 | 0.9010 |
|
| 622 |
+
| 1.0527 | 140 | 0.0096 | - | - |
|
| 623 |
+
| 1.1281 | 150 | 0.0133 | - | - |
|
| 624 |
+
| 1.2034 | 160 | 0.0116 | - | - |
|
| 625 |
+
| 1.2787 | 170 | 0.0088 | - | - |
|
| 626 |
+
| 1.3540 | 180 | 0.0102 | - | - |
|
| 627 |
+
| 1.4294 | 190 | 0.0058 | - | - |
|
| 628 |
+
| 1.5047 | 200 | 0.0066 | - | - |
|
| 629 |
+
| 1.5800 | 210 | 0.0051 | - | - |
|
| 630 |
+
| 1.6554 | 220 | 0.0262 | - | - |
|
| 631 |
+
| 1.7307 | 230 | 0.0081 | - | - |
|
| 632 |
+
| 1.8060 | 240 | 0.015 | - | - |
|
| 633 |
+
| 1.8814 | 250 | 0.0117 | - | - |
|
| 634 |
+
| 1.9567 | 260 | 0.0065 | - | - |
|
| 635 |
+
| 2.0 | 266 | - | 0.9043 | 0.9031 |
|
| 636 |
+
| 2.0301 | 270 | 0.0169 | - | - |
|
| 637 |
+
| 2.1055 | 280 | 0.0105 | - | - |
|
| 638 |
+
| 2.1808 | 290 | 0.0076 | - | - |
|
| 639 |
+
| 2.2561 | 300 | 0.0072 | - | - |
|
| 640 |
+
| 2.3315 | 310 | 0.0068 | - | - |
|
| 641 |
+
| 2.4068 | 320 | 0.0092 | - | - |
|
| 642 |
+
| 2.4821 | 330 | 0.0189 | - | - |
|
| 643 |
+
| 2.5574 | 340 | 0.0157 | - | - |
|
| 644 |
+
| 2.6328 | 350 | 0.0142 | - | - |
|
| 645 |
+
| 2.7081 | 360 | 0.0082 | - | - |
|
| 646 |
+
| 2.7834 | 370 | 0.0161 | - | - |
|
| 647 |
+
| 2.8588 | 380 | 0.0052 | - | - |
|
| 648 |
+
| 2.9341 | 390 | 0.0094 | - | - |
|
| 649 |
+
| **3.0** | **399** | **-** | **0.912** | **0.9088** |
|
| 650 |
+
| 3.0075 | 400 | 0.0052 | - | - |
|
| 651 |
+
| 3.0829 | 410 | 0.0095 | - | - |
|
| 652 |
+
| 3.1582 | 420 | 0.005 | - | - |
|
| 653 |
+
| 3.2335 | 430 | 0.004 | - | - |
|
| 654 |
+
| 3.3089 | 440 | 0.0054 | - | - |
|
| 655 |
+
| 3.3842 | 450 | 0.0063 | - | - |
|
| 656 |
+
| 3.4595 | 460 | 0.0061 | - | - |
|
| 657 |
+
| 3.5348 | 470 | 0.0045 | - | - |
|
| 658 |
+
| 3.6102 | 480 | 0.0101 | - | - |
|
| 659 |
+
| 3.6855 | 490 | 0.0059 | - | - |
|
| 660 |
+
| 3.7608 | 500 | 0.0096 | - | - |
|
| 661 |
+
| 3.8362 | 510 | 0.003 | - | - |
|
| 662 |
+
| 3.9115 | 520 | 0.0106 | - | - |
|
| 663 |
+
| 3.9868 | 530 | 0.0097 | - | - |
|
| 664 |
+
| 4.0 | 532 | - | 0.9125 | 0.9116 |
|
| 665 |
+
| 4.0603 | 540 | 0.0049 | - | - |
|
| 666 |
+
| 4.1356 | 550 | 0.0052 | - | - |
|
| 667 |
+
| 4.2109 | 560 | 0.0063 | - | - |
|
| 668 |
+
| 4.2863 | 570 | 0.0058 | - | - |
|
| 669 |
+
| 4.3616 | 580 | 0.0058 | - | - |
|
| 670 |
+
| 4.4369 | 590 | 0.0088 | - | - |
|
| 671 |
+
| 4.5122 | 600 | 0.0057 | - | - |
|
| 672 |
+
| 4.5876 | 610 | 0.0051 | - | - |
|
| 673 |
+
| 4.6629 | 620 | 0.0029 | - | - |
|
| 674 |
+
| 4.7382 | 630 | 0.0137 | - | - |
|
| 675 |
+
| 4.8136 | 640 | 0.0064 | - | - |
|
| 676 |
+
| 4.8889 | 650 | 0.0107 | - | - |
|
| 677 |
+
| 4.9642 | 660 | 0.0047 | - | - |
|
| 678 |
+
| 5.0 | 665 | - | 0.9103 | 0.9076 |
|
| 679 |
+
| 5.0377 | 670 | 0.007 | - | - |
|
| 680 |
+
| 5.1130 | 680 | 0.0046 | - | - |
|
| 681 |
+
| 5.1883 | 690 | 0.0033 | - | - |
|
| 682 |
+
| 5.2637 | 700 | 0.0034 | - | - |
|
| 683 |
+
| 5.3390 | 710 | 0.0015 | - | - |
|
| 684 |
+
| 5.4143 | 720 | 0.0111 | - | - |
|
| 685 |
+
| 5.4896 | 730 | 0.0075 | - | - |
|
| 686 |
+
| 5.5650 | 740 | 0.0081 | - | - |
|
| 687 |
+
| 5.6403 | 750 | 0.0016 | - | - |
|
| 688 |
+
| 5.7156 | 760 | 0.0144 | - | - |
|
| 689 |
+
| 5.7910 | 770 | 0.0053 | - | - |
|
| 690 |
+
| 5.8663 | 780 | 0.003 | - | - |
|
| 691 |
+
| 5.9416 | 790 | 0.0043 | - | - |
|
| 692 |
+
| 6.0 | 798 | - | 0.9115 | 0.9094 |
|
| 693 |
+
|
| 694 |
+
* The bold row denotes the saved checkpoint.
|
| 695 |
+
|
| 696 |
+
### Framework Versions
|
| 697 |
+
- Python: 3.12.11
|
| 698 |
+
- Sentence Transformers: 5.1.1
|
| 699 |
+
- Transformers: 4.57.0
|
| 700 |
+
- PyTorch: 2.8.0+cu126
|
| 701 |
+
- Accelerate: 1.10.1
|
| 702 |
+
- Datasets: 4.0.0
|
| 703 |
+
- Tokenizers: 0.22.1
|
| 704 |
+
|
| 705 |
+
## Citation
|
| 706 |
+
|
| 707 |
+
### BibTeX
|
| 708 |
+
|
| 709 |
+
#### Sentence Transformers
|
| 710 |
+
```bibtex
|
| 711 |
+
@inproceedings{reimers-2019-sentence-bert,
|
| 712 |
+
title = "Sentence-BERT: Sentence Embeddings using Siamese BERT-Networks",
|
| 713 |
+
author = "Reimers, Nils and Gurevych, Iryna",
|
| 714 |
+
booktitle = "Proceedings of the 2019 Conference on Empirical Methods in Natural Language Processing",
|
| 715 |
+
month = "11",
|
| 716 |
+
year = "2019",
|
| 717 |
+
publisher = "Association for Computational Linguistics",
|
| 718 |
+
url = "https://arxiv.org/abs/1908.10084",
|
| 719 |
+
}
|
| 720 |
+
```
|
| 721 |
+
|
| 722 |
+
#### MatryoshkaLoss
|
| 723 |
+
```bibtex
|
| 724 |
+
@misc{kusupati2024matryoshka,
|
| 725 |
+
title={Matryoshka Representation Learning},
|
| 726 |
+
author={Aditya Kusupati and Gantavya Bhatt and Aniket Rege and Matthew Wallingford and Aditya Sinha and Vivek Ramanujan and William Howard-Snyder and Kaifeng Chen and Sham Kakade and Prateek Jain and Ali Farhadi},
|
| 727 |
+
year={2024},
|
| 728 |
+
eprint={2205.13147},
|
| 729 |
+
archivePrefix={arXiv},
|
| 730 |
+
primaryClass={cs.LG}
|
| 731 |
+
}
|
| 732 |
+
```
|
| 733 |
+
|
| 734 |
+
#### MultipleNegativesRankingLoss
|
| 735 |
+
```bibtex
|
| 736 |
+
@misc{henderson2017efficient,
|
| 737 |
+
title={Efficient Natural Language Response Suggestion for Smart Reply},
|
| 738 |
+
author={Matthew Henderson and Rami Al-Rfou and Brian Strope and Yun-hsuan Sung and Laszlo Lukacs and Ruiqi Guo and Sanjiv Kumar and Balint Miklos and Ray Kurzweil},
|
| 739 |
+
year={2017},
|
| 740 |
+
eprint={1705.00652},
|
| 741 |
+
archivePrefix={arXiv},
|
| 742 |
+
primaryClass={cs.CL}
|
| 743 |
+
}
|
| 744 |
+
```
|
| 745 |
+
|
| 746 |
+
<!--
|
| 747 |
+
## Glossary
|
| 748 |
+
|
| 749 |
+
*Clearly define terms in order to be accessible across audiences.*
|
| 750 |
+
-->
|
| 751 |
+
|
| 752 |
+
<!--
|
| 753 |
+
## Model Card Authors
|
| 754 |
+
|
| 755 |
+
*Lists the people who create the model card, providing recognition and accountability for the detailed work that goes into its construction.*
|
| 756 |
+
-->
|
| 757 |
+
|
| 758 |
+
<!--
|
| 759 |
+
## Model Card Contact
|
| 760 |
+
|
| 761 |
+
*Provides a way for people who have updates to the Model Card, suggestions, or questions, to contact the Model Card authors.*
|
| 762 |
+
-->
|
config.json
ADDED
|
@@ -0,0 +1,27 @@
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
| 1 |
+
{
|
| 2 |
+
"architectures": [
|
| 3 |
+
"XLMRobertaModel"
|
| 4 |
+
],
|
| 5 |
+
"attention_probs_dropout_prob": 0.1,
|
| 6 |
+
"bos_token_id": 0,
|
| 7 |
+
"classifier_dropout": null,
|
| 8 |
+
"dtype": "float32",
|
| 9 |
+
"eos_token_id": 2,
|
| 10 |
+
"hidden_act": "gelu",
|
| 11 |
+
"hidden_dropout_prob": 0.1,
|
| 12 |
+
"hidden_size": 1024,
|
| 13 |
+
"initializer_range": 0.02,
|
| 14 |
+
"intermediate_size": 4096,
|
| 15 |
+
"layer_norm_eps": 1e-05,
|
| 16 |
+
"max_position_embeddings": 8194,
|
| 17 |
+
"model_type": "xlm-roberta",
|
| 18 |
+
"num_attention_heads": 16,
|
| 19 |
+
"num_hidden_layers": 24,
|
| 20 |
+
"output_past": true,
|
| 21 |
+
"pad_token_id": 1,
|
| 22 |
+
"position_embedding_type": "absolute",
|
| 23 |
+
"transformers_version": "4.57.0",
|
| 24 |
+
"type_vocab_size": 1,
|
| 25 |
+
"use_cache": true,
|
| 26 |
+
"vocab_size": 250002
|
| 27 |
+
}
|
config_sentence_transformers.json
ADDED
|
@@ -0,0 +1,14 @@
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
| 1 |
+
{
|
| 2 |
+
"__version__": {
|
| 3 |
+
"sentence_transformers": "5.1.1",
|
| 4 |
+
"transformers": "4.57.0",
|
| 5 |
+
"pytorch": "2.8.0+cu126"
|
| 6 |
+
},
|
| 7 |
+
"prompts": {
|
| 8 |
+
"query": "",
|
| 9 |
+
"document": ""
|
| 10 |
+
},
|
| 11 |
+
"default_prompt_name": null,
|
| 12 |
+
"similarity_fn_name": "cosine",
|
| 13 |
+
"model_type": "SentenceTransformer"
|
| 14 |
+
}
|
model.safetensors
ADDED
|
@@ -0,0 +1,3 @@
|
|
|
|
|
|
|
|
|
|
|
|
|
| 1 |
+
version https://git-lfs.github.com/spec/v1
|
| 2 |
+
oid sha256:c694f9f7b6f7cee2a7a0fc165d9afe682ca5f564f324c746cf34b51f7b455023
|
| 3 |
+
size 2271064456
|
modules.json
ADDED
|
@@ -0,0 +1,20 @@
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
| 1 |
+
[
|
| 2 |
+
{
|
| 3 |
+
"idx": 0,
|
| 4 |
+
"name": "0",
|
| 5 |
+
"path": "",
|
| 6 |
+
"type": "sentence_transformers.models.Transformer"
|
| 7 |
+
},
|
| 8 |
+
{
|
| 9 |
+
"idx": 1,
|
| 10 |
+
"name": "1",
|
| 11 |
+
"path": "1_Pooling",
|
| 12 |
+
"type": "sentence_transformers.models.Pooling"
|
| 13 |
+
},
|
| 14 |
+
{
|
| 15 |
+
"idx": 2,
|
| 16 |
+
"name": "2",
|
| 17 |
+
"path": "2_Normalize",
|
| 18 |
+
"type": "sentence_transformers.models.Normalize"
|
| 19 |
+
}
|
| 20 |
+
]
|
sentence_bert_config.json
ADDED
|
@@ -0,0 +1,4 @@
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
| 1 |
+
{
|
| 2 |
+
"max_seq_length": 8192,
|
| 3 |
+
"do_lower_case": false
|
| 4 |
+
}
|
sentencepiece.bpe.model
ADDED
|
@@ -0,0 +1,3 @@
|
|
|
|
|
|
|
|
|
|
|
|
|
| 1 |
+
version https://git-lfs.github.com/spec/v1
|
| 2 |
+
oid sha256:cfc8146abe2a0488e9e2a0c56de7952f7c11ab059eca145a0a727afce0db2865
|
| 3 |
+
size 5069051
|
special_tokens_map.json
ADDED
|
@@ -0,0 +1,51 @@
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
| 1 |
+
{
|
| 2 |
+
"bos_token": {
|
| 3 |
+
"content": "<s>",
|
| 4 |
+
"lstrip": false,
|
| 5 |
+
"normalized": false,
|
| 6 |
+
"rstrip": false,
|
| 7 |
+
"single_word": false
|
| 8 |
+
},
|
| 9 |
+
"cls_token": {
|
| 10 |
+
"content": "<s>",
|
| 11 |
+
"lstrip": false,
|
| 12 |
+
"normalized": false,
|
| 13 |
+
"rstrip": false,
|
| 14 |
+
"single_word": false
|
| 15 |
+
},
|
| 16 |
+
"eos_token": {
|
| 17 |
+
"content": "</s>",
|
| 18 |
+
"lstrip": false,
|
| 19 |
+
"normalized": false,
|
| 20 |
+
"rstrip": false,
|
| 21 |
+
"single_word": false
|
| 22 |
+
},
|
| 23 |
+
"mask_token": {
|
| 24 |
+
"content": "<mask>",
|
| 25 |
+
"lstrip": true,
|
| 26 |
+
"normalized": false,
|
| 27 |
+
"rstrip": false,
|
| 28 |
+
"single_word": false
|
| 29 |
+
},
|
| 30 |
+
"pad_token": {
|
| 31 |
+
"content": "<pad>",
|
| 32 |
+
"lstrip": false,
|
| 33 |
+
"normalized": false,
|
| 34 |
+
"rstrip": false,
|
| 35 |
+
"single_word": false
|
| 36 |
+
},
|
| 37 |
+
"sep_token": {
|
| 38 |
+
"content": "</s>",
|
| 39 |
+
"lstrip": false,
|
| 40 |
+
"normalized": false,
|
| 41 |
+
"rstrip": false,
|
| 42 |
+
"single_word": false
|
| 43 |
+
},
|
| 44 |
+
"unk_token": {
|
| 45 |
+
"content": "<unk>",
|
| 46 |
+
"lstrip": false,
|
| 47 |
+
"normalized": false,
|
| 48 |
+
"rstrip": false,
|
| 49 |
+
"single_word": false
|
| 50 |
+
}
|
| 51 |
+
}
|
tokenizer.json
ADDED
|
@@ -0,0 +1,3 @@
|
|
|
|
|
|
|
|
|
|
|
|
|
| 1 |
+
version https://git-lfs.github.com/spec/v1
|
| 2 |
+
oid sha256:222975faa02f5257c6e8c734e85973e48c8d42d7d37d90b894c73efa1841d76a
|
| 3 |
+
size 17083154
|
tokenizer_config.json
ADDED
|
@@ -0,0 +1,63 @@
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
| 1 |
+
{
|
| 2 |
+
"added_tokens_decoder": {
|
| 3 |
+
"0": {
|
| 4 |
+
"content": "<s>",
|
| 5 |
+
"lstrip": false,
|
| 6 |
+
"normalized": false,
|
| 7 |
+
"rstrip": false,
|
| 8 |
+
"single_word": false,
|
| 9 |
+
"special": true
|
| 10 |
+
},
|
| 11 |
+
"1": {
|
| 12 |
+
"content": "<pad>",
|
| 13 |
+
"lstrip": false,
|
| 14 |
+
"normalized": false,
|
| 15 |
+
"rstrip": false,
|
| 16 |
+
"single_word": false,
|
| 17 |
+
"special": true
|
| 18 |
+
},
|
| 19 |
+
"2": {
|
| 20 |
+
"content": "</s>",
|
| 21 |
+
"lstrip": false,
|
| 22 |
+
"normalized": false,
|
| 23 |
+
"rstrip": false,
|
| 24 |
+
"single_word": false,
|
| 25 |
+
"special": true
|
| 26 |
+
},
|
| 27 |
+
"3": {
|
| 28 |
+
"content": "<unk>",
|
| 29 |
+
"lstrip": false,
|
| 30 |
+
"normalized": false,
|
| 31 |
+
"rstrip": false,
|
| 32 |
+
"single_word": false,
|
| 33 |
+
"special": true
|
| 34 |
+
},
|
| 35 |
+
"250001": {
|
| 36 |
+
"content": "<mask>",
|
| 37 |
+
"lstrip": true,
|
| 38 |
+
"normalized": false,
|
| 39 |
+
"rstrip": false,
|
| 40 |
+
"single_word": false,
|
| 41 |
+
"special": true
|
| 42 |
+
}
|
| 43 |
+
},
|
| 44 |
+
"bos_token": "<s>",
|
| 45 |
+
"clean_up_tokenization_spaces": true,
|
| 46 |
+
"cls_token": "<s>",
|
| 47 |
+
"eos_token": "</s>",
|
| 48 |
+
"extra_special_tokens": {},
|
| 49 |
+
"mask_token": "<mask>",
|
| 50 |
+
"max_length": 8192,
|
| 51 |
+
"model_max_length": 8192,
|
| 52 |
+
"pad_to_multiple_of": null,
|
| 53 |
+
"pad_token": "<pad>",
|
| 54 |
+
"pad_token_type_id": 0,
|
| 55 |
+
"padding_side": "right",
|
| 56 |
+
"sep_token": "</s>",
|
| 57 |
+
"sp_model_kwargs": {},
|
| 58 |
+
"stride": 0,
|
| 59 |
+
"tokenizer_class": "XLMRobertaTokenizer",
|
| 60 |
+
"truncation_side": "right",
|
| 61 |
+
"truncation_strategy": "longest_first",
|
| 62 |
+
"unk_token": "<unk>"
|
| 63 |
+
}
|