splendor1811 commited on
Commit
98a7467
·
verified ·
1 Parent(s): c3d1ee3

Add new SentenceTransformer model

Browse files
.gitattributes CHANGED
@@ -33,3 +33,4 @@ saved_model/**/* filter=lfs diff=lfs merge=lfs -text
33
  *.zip filter=lfs diff=lfs merge=lfs -text
34
  *.zst filter=lfs diff=lfs merge=lfs -text
35
  *tfevents* filter=lfs diff=lfs merge=lfs -text
 
 
33
  *.zip filter=lfs diff=lfs merge=lfs -text
34
  *.zst filter=lfs diff=lfs merge=lfs -text
35
  *tfevents* filter=lfs diff=lfs merge=lfs -text
36
+ tokenizer.json filter=lfs diff=lfs merge=lfs -text
1_Pooling/config.json ADDED
@@ -0,0 +1,10 @@
 
 
 
 
 
 
 
 
 
 
 
1
+ {
2
+ "word_embedding_dimension": 1024,
3
+ "pooling_mode_cls_token": true,
4
+ "pooling_mode_mean_tokens": false,
5
+ "pooling_mode_max_tokens": false,
6
+ "pooling_mode_mean_sqrt_len_tokens": false,
7
+ "pooling_mode_weightedmean_tokens": false,
8
+ "pooling_mode_lasttoken": false,
9
+ "include_prompt": true
10
+ }
README.md ADDED
@@ -0,0 +1,762 @@
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
1
+ ---
2
+ language:
3
+ - vi
4
+ license: apache-2.0
5
+ tags:
6
+ - sentence-transformers
7
+ - sentence-similarity
8
+ - feature-extraction
9
+ - dense
10
+ - generated_from_trainer
11
+ - dataset_size:8494
12
+ - loss:MatryoshkaLoss
13
+ - loss:MultipleNegativesRankingLoss
14
+ base_model: splendor1811/BGE-base-banking-ONE-v0106
15
+ widget:
16
+ - source_sentence: Đối với sản phẩm vay tiêu dùng có tài sản bảo đảm cho các mục đích
17
+ khác (không phải du học), giới hạn phần trăm cho vay so với phương án tối đa là
18
+ bao nhiêu và vì sao ngân hàng cần quy định giới hạn này?
19
+ sentences:
20
+ - "Câu hỏi: Thời gian hoàn tiền cho KH khi nào \nTrả lời: + Thông báo trúng thưởng:\
21
+ \ Trong vòng 30 ngày làm việc kể từ ngày chốt dữ liệu trả thưởng hàng tháng, ACB\
22
+ \ công bố danh sách khách hàng thỏa điều kiện nhận thưởng lên website www.acb.com.vn\
23
+ \ hoặc gửi thông báo trực tiếp đến khách hàng qua ứng dụng ACB ONE hoặc qua email. \
24
+ \ \n+ Thời gian chi thưởng: hàng tháng, trong vòng 30 ngày làm việc kể từ ngày\
25
+ \ ACB gửi thông báo trúng thưởng.  \n+ Hình thức chi thưởng: tiền thưởng được\
26
+ \ chuyển vào TKTT của KH tại ACB "
27
+ - 'Câu hỏi: Tỷ lệ cho vay/phương án theo sản phẩm tiêu dùng có tài sản bảo đảm được
28
+ quy định như thế nào?
29
+
30
+ Trả lời:- Đối với mục đích thanh toán chi phí du học, cấp hạn mức thấu chi: <
31
+ 100% phương án.
32
+
33
+ - Đối với các mục đích vay còn lại: ≤ 90% phương án.
34
+
35
+ Công văn tham khảo: CV 140/NVQĐ-PTGPTD.25'
36
+ - 'Câu hỏi: NVXLN soạn, gửi thông báo thời gian, địa điểm bàn giao tài sản cho bên
37
+ mua tài sản và Tổ chức hành nghề đấu giá tài sản trong trường hợp bán qua đấu
38
+ giá trong thời hạn bao lâu?
39
+
40
+ Trả lời: 07 ngày kể từ ngày ký hợp đồng mua bán/chuyển nhượng.
41
+
42
+ Công văn tham khảo: Phần IV.2 Phụ lục 5.1 QP 7.191'
43
+ - source_sentence: Làm sao trình hoàn PTN ACB Privilege Visa Signature? Lập biểu mẫu
44
+ và mail nhận xử lý
45
+ sentences:
46
+ - "Câu hỏi: Vì sao có thông báo “Ứng dụng đã bị khóa do nhập sai mã kích hoạt 5\
47
+ \ lần liên tiếp”?\nTrả lời: ➔ Mỗi mã kích hoạt chỉ sử dụng 01 lần cho 01 thiết\
48
+ \ bị. Nếu mã kích hoạt đã được sử dụng (kích hoạt thành công) thì mã kích hoạt\
49
+ \ đó hết hiệu lực (tức không thể dùng lại mã kích hoạt đó trên thiết bị khác hoặc\
50
+ \ cho ứng dụng tải mới ngay trên thiết bị đã được kích hoạt thành công trước đó).\
51
+ \ \n\n➔ Khi nhập mã kích hoạt 05 lần vẫn chưa kích hoạt được (do nhập sai mã kích\
52
+ \ hoạt hoặc mã kích hoạt đã hết hạn hoặc mã kích hoạt đã được sử dụng), ứng dụng\
53
+ \ cài đặt trên thiết bị sẽ bị tạm khóa trong vòng 60 phút. Sau khi hết thời gian\
54
+ \ tạm khóa, KH cần sử dụng mã kích hoạt mới để kích hoạt lại ứng dụng. \n\nCông\
55
+ \ văn tham khảo: WI-02/NHSO - Hướng dẫn đăng ký & sử dụng dịch vụ Ngân hàng số\
56
+ \ (ACB ONE dành cho KHCN và ACB ONE BIZ dành cho KHDN) "
57
+ - 'Câu hỏi: Ai chịu trách nhiệm lập thông báo THNTH?
58
+
59
+ Trả lời: KPP.
60
+
61
+ Công văn tham khảo: Phụ lục 4 – Mục II.'
62
+ - 'Câu hỏi: Làm sao trình hoàn PTN ACB Privilege Visa Signature? Lập biểu mẫu và
63
+ mail nhận xử lý
64
+
65
+ Trả lời: Các trường hợp cần xem xét ngoại lệ PTN, đơn vị cần gửi tờ trình D1.61
66
+ đến chị DINH THI HOAI LINH (linhdth03@acb.com.vn) - Bp hỗ trợ bán hàng TT.PTGPTT
67
+ để được hỗ trợ.'
68
+ - source_sentence: Ai chịu trách nhiệm xác minh điều kiện về chặng bay và ai chịu
69
+ trách nhiệm xét duyệt tiêu chí cấp thẻ khi khách hàng yêu cầu mở thẻ tín dụng
70
+ qua liên kết VNA - ACB?
71
+ sentences:
72
+ - "Câu hỏi: Ưu đãi khi thanh toán tại Shopee/Xanh SM/Agoda/Grab áp dụng cho các\
73
+ \ loại thẻ nào? \nTrả lời: Áp dụng cho thẻ tín dụng cá nhân ACB phát hành gồm:\
74
+ \ Visa Infinite, Privilega Visa Signature, Visa Signature, Visa Platinum"
75
+ - 'Câu hỏi: Trường hợp KH được điều hướng mở thẻ ghi nợ từ APP Lotussmiles của VNA
76
+ nhưng KH có nhu cầu mở thẻ tín dụng thì phải như thế nào ?
77
+
78
+ Trả lời: KH cần thỏa điều kiện để được điều hướng vào luồng mở thẻ tín dụng:
79
+
80
+ - Về phía VNA: KH cần tích lũy được ít nhất 2 chặng bay xét hạng trong 12 tháng
81
+ gần nhất tính tới thời điểm KH mở thẻ
82
+
83
+ - Về phía ACB: KH thỏa những tiêu chí xét cấp thẻ tín dụng của ACB.'
84
+ - 'Câu hỏi: Khi nhận chính TSBĐ để thay thế nghĩa vụ trả nợ, áp dụng theo quy định
85
+ nào?
86
+
87
+ Trả lời: Theo “Quy định về nhận chuyển nhượng TSBĐ là bất động sản để xử lý nợ
88
+ của ACB”. Các trường hợp không được hướng dẫn tại “Quy định v/v nhận chuyển nhượng
89
+ TSBĐ là bất động sản để xử lý nợ của ACB” thì thực hiện theo Phụ lục Thứ tự thu
90
+ nợ của “Quy định về việc tổ chức hoạt động quả lý, giám sát và xử lý nợ tại ACB”.
91
+
92
+ Công văn tham khảo: Phụ lục 5 – Mục II.2.'
93
+ - source_sentence: Trường hợp cần miễn giảm hoặc điều chỉnh phí bảo lãnh vượt quá
94
+ giới hạn 50% do TĐV quy định, ai là người có thẩm quyền quyết định và quy trình
95
+ cần thực hiện?
96
+ sentences:
97
+ - 'Câu hỏi: Đối với các giấy tờ là bản sao do cơ quan có thẩm quyền cấp (như Giấy
98
+ khai sinh …)  nhưng KH không giao cho ngân hàng giữ các bản sao này thì NVNV có
99
+ thể photo và lưu trữ  bản photo này không? 
100
+
101
+ Trả lời: Có thể thực hiện. Nhân viên được có thể photo, đóng dấu “đã đối chiếu
102
+ bản chính, ký xác nhận trên bản photo và lưu giữ theo quy định hiện hành. '
103
+ - 'Câu hỏi: Đơn vị nào có trách nhiệm tổ chức thực hiện “Quy định về việc tổ chức
104
+ hoạt động quản lý, giám sát và xử lý nợ”?
105
+
106
+ Trả lời: P.QLN, ACBL, Khối Vận hành, Khối Quản trị Nguồn nhân lực, các đơn vị
107
+ hội sở, Trưởng Cụm, TĐV KPP.
108
+
109
+ Công văn tham khảo: Điều 8 – Tổ chức thực hiện.'
110
+ - 'Câu hỏi: TĐV có thẩm quyền duyệt phí bảo lãnh không?
111
+
112
+ Trả lời: TĐV có thẩm quyền duyệt phí bảo lãnh tín chấp tối đa 50% và mức phí
113
+ tối thiểu tối đa 50%
114
+
115
+ Công văn tham khảo: Phụ lục 6, Thẩm quyền miễn giảm phí dịch vụ cua TĐV, CV 183'
116
+ - source_sentence: KPP phải gửi thông báo chuyển nợ quá hạn đối với khoản vay trong
117
+ bao lâu?
118
+ sentences:
119
+ - 'Câu hỏi: Trường hợp TS tọa lạc địa bàn BP. Cao Thắng thuộc QH đất văn phòng,
120
+ đất phức hợp chức năng khách sạn nhưng được cấp GPXD kiên cố/ hoàn công trên GCN
121
+ thì có xem như phù hợp quy hoạch không? Ứng xử như thế nào? 
122
+
123
+ Trả lời: - Trường hợp TS thuộc QH đất văn phòng, đất phức hợp chức năng khách
124
+ sạn nhưng được cấp GPXD kiên cố/ hoàn công trên GCN được xem như thỏa điều kiện
125
+ quy hoạch. 
126
+
127
+ - NVĐG ứng xử theo các tỷ lệ định giá theo quy định tại PL 2.1, 3.1, 4.1 – WI-02/ĐGTS '
128
+ - 'Câu hỏi: KPP phải gửi thông báo chuyển nợ quá hạn đối với khoản vay trong bao
129
+ lâu?
130
+
131
+ Trả lời: Trong vòng 07 ngày kể từ ngày khoản vay bị chuyển nợ quá hạn.
132
+
133
+ Công văn tham khảo: Phụ lục 4 – Mục I – QF-06a/QLN.'
134
+ - 'Câu hỏi: Khách hàng có nhu cầu phát hành dàn xếp tín dụng mẫu thư thể hiện nội
135
+ dung: " số tiền tối thiểu: ...." có được không?
136
+
137
+ Trả lời: Không được. Tuyệt đối không thể hiện số tiền tối thiểu.
138
+
139
+ Công văn tham khảo: CV 68- Quy định dàn xếp tín dụng'
140
+ pipeline_tag: sentence-similarity
141
+ library_name: sentence-transformers
142
+ metrics:
143
+ - cosine_accuracy@1
144
+ - cosine_accuracy@3
145
+ - cosine_accuracy@5
146
+ - cosine_accuracy@10
147
+ - cosine_precision@1
148
+ - cosine_precision@3
149
+ - cosine_precision@5
150
+ - cosine_precision@10
151
+ - cosine_recall@1
152
+ - cosine_recall@3
153
+ - cosine_recall@5
154
+ - cosine_recall@10
155
+ - cosine_ndcg@10
156
+ - cosine_mrr@10
157
+ - cosine_map@100
158
+ model-index:
159
+ - name: BGE-qa-internal
160
+ results:
161
+ - task:
162
+ type: information-retrieval
163
+ name: Information Retrieval
164
+ dataset:
165
+ name: dim 1024
166
+ type: dim_1024
167
+ metrics:
168
+ - type: cosine_accuracy@1
169
+ value: 0.8839285714285714
170
+ name: Cosine Accuracy@1
171
+ - type: cosine_accuracy@3
172
+ value: 0.8950892857142857
173
+ name: Cosine Accuracy@3
174
+ - type: cosine_accuracy@5
175
+ value: 0.8950892857142857
176
+ name: Cosine Accuracy@5
177
+ - type: cosine_accuracy@10
178
+ value: 0.9598214285714286
179
+ name: Cosine Accuracy@10
180
+ - type: cosine_precision@1
181
+ value: 0.8839285714285714
182
+ name: Cosine Precision@1
183
+ - type: cosine_precision@3
184
+ value: 0.8876488095238095
185
+ name: Cosine Precision@3
186
+ - type: cosine_precision@5
187
+ value: 0.885267857142857
188
+ name: Cosine Precision@5
189
+ - type: cosine_precision@10
190
+ value: 0.5591517857142856
191
+ name: Cosine Precision@10
192
+ - type: cosine_recall@1
193
+ value: 0.14732142857142858
194
+ name: Cosine Recall@1
195
+ - type: cosine_recall@3
196
+ value: 0.44382440476190477
197
+ name: Cosine Recall@3
198
+ - type: cosine_recall@5
199
+ value: 0.7377232142857143
200
+ name: Cosine Recall@5
201
+ - type: cosine_recall@10
202
+ value: 0.9319196428571429
203
+ name: Cosine Recall@10
204
+ - type: cosine_ndcg@10
205
+ value: 0.9115070587354593
206
+ name: Cosine Ndcg@10
207
+ - type: cosine_mrr@10
208
+ value: 0.8983843537414969
209
+ name: Cosine Mrr@10
210
+ - type: cosine_map@100
211
+ value: 0.914890645990526
212
+ name: Cosine Map@100
213
+ - task:
214
+ type: information-retrieval
215
+ name: Information Retrieval
216
+ dataset:
217
+ name: dim 768
218
+ type: dim_768
219
+ metrics:
220
+ - type: cosine_accuracy@1
221
+ value: 0.8839285714285714
222
+ name: Cosine Accuracy@1
223
+ - type: cosine_accuracy@3
224
+ value: 0.8928571428571429
225
+ name: Cosine Accuracy@3
226
+ - type: cosine_accuracy@5
227
+ value: 0.8950892857142857
228
+ name: Cosine Accuracy@5
229
+ - type: cosine_accuracy@10
230
+ value: 0.9553571428571429
231
+ name: Cosine Accuracy@10
232
+ - type: cosine_precision@1
233
+ value: 0.8839285714285714
234
+ name: Cosine Precision@1
235
+ - type: cosine_precision@3
236
+ value: 0.8869047619047619
237
+ name: Cosine Precision@3
238
+ - type: cosine_precision@5
239
+ value: 0.884375
240
+ name: Cosine Precision@5
241
+ - type: cosine_precision@10
242
+ value: 0.557142857142857
243
+ name: Cosine Precision@10
244
+ - type: cosine_recall@1
245
+ value: 0.14732142857142858
246
+ name: Cosine Recall@1
247
+ - type: cosine_recall@3
248
+ value: 0.44345238095238093
249
+ name: Cosine Recall@3
250
+ - type: cosine_recall@5
251
+ value: 0.7369791666666667
252
+ name: Cosine Recall@5
253
+ - type: cosine_recall@10
254
+ value: 0.9285714285714286
255
+ name: Cosine Recall@10
256
+ - type: cosine_ndcg@10
257
+ value: 0.9094041503391372
258
+ name: Cosine Ndcg@10
259
+ - type: cosine_mrr@10
260
+ value: 0.8970769557823133
261
+ name: Cosine Mrr@10
262
+ - type: cosine_map@100
263
+ value: 0.9136403091385706
264
+ name: Cosine Map@100
265
+ ---
266
+
267
+ # BGE-qa-internal
268
+
269
+ This is a [sentence-transformers](https://www.SBERT.net) model finetuned from [splendor1811/BGE-base-banking-ONE-v0106](https://huggingface.co/splendor1811/BGE-base-banking-ONE-v0106) on the json dataset. It maps sentences & paragraphs to a 1024-dimensional dense vector space and can be used for semantic textual similarity, semantic search, paraphrase mining, text classification, clustering, and more.
270
+
271
+ ## Model Details
272
+
273
+ ### Model Description
274
+ - **Model Type:** Sentence Transformer
275
+ - **Base model:** [splendor1811/BGE-base-banking-ONE-v0106](https://huggingface.co/splendor1811/BGE-base-banking-ONE-v0106) <!-- at revision 9c233176fc7eb592572824ebb465bbe59997a308 -->
276
+ - **Maximum Sequence Length:** 8192 tokens
277
+ - **Output Dimensionality:** 1024 dimensions
278
+ - **Similarity Function:** Cosine Similarity
279
+ - **Training Dataset:**
280
+ - json
281
+ - **Language:** vi
282
+ - **License:** apache-2.0
283
+
284
+ ### Model Sources
285
+
286
+ - **Documentation:** [Sentence Transformers Documentation](https://sbert.net)
287
+ - **Repository:** [Sentence Transformers on GitHub](https://github.com/UKPLab/sentence-transformers)
288
+ - **Hugging Face:** [Sentence Transformers on Hugging Face](https://huggingface.co/models?library=sentence-transformers)
289
+
290
+ ### Full Model Architecture
291
+
292
+ ```
293
+ SentenceTransformer(
294
+ (0): Transformer({'max_seq_length': 8192, 'do_lower_case': False, 'architecture': 'XLMRobertaModel'})
295
+ (1): Pooling({'word_embedding_dimension': 1024, 'pooling_mode_cls_token': True, 'pooling_mode_mean_tokens': False, 'pooling_mode_max_tokens': False, 'pooling_mode_mean_sqrt_len_tokens': False, 'pooling_mode_weightedmean_tokens': False, 'pooling_mode_lasttoken': False, 'include_prompt': True})
296
+ (2): Normalize()
297
+ )
298
+ ```
299
+
300
+ ## Usage
301
+
302
+ ### Direct Usage (Sentence Transformers)
303
+
304
+ First install the Sentence Transformers library:
305
+
306
+ ```bash
307
+ pip install -U sentence-transformers
308
+ ```
309
+
310
+ Then you can load this model and run inference.
311
+ ```python
312
+ from sentence_transformers import SentenceTransformer
313
+
314
+ # Download from the 🤗 Hub
315
+ model = SentenceTransformer("splendor1811/BGE-qa-internal")
316
+ # Run inference
317
+ sentences = [
318
+ 'KPP phải gửi thông báo chuyển nợ quá hạn đối với khoản vay trong bao lâu?',
319
+ 'Câu hỏi: KPP phải gửi thông báo chuyển nợ quá hạn đối với khoản vay trong bao lâu?\nTrả lời: Trong vòng 07 ngày kể từ ngày khoản vay bị chuyển nợ quá hạn.\nCông văn tham khảo: Phụ lục 4 – Mục I – QF-06a/QLN.',
320
+ 'Câu hỏi: Khách hàng có nhu cầu phát hành dàn xếp tín dụng mẫu thư thể hiện nội dung: " số tiền tối thiểu: ...." có được không?\nTrả lời: Không được. Tuyệt đối không thể hiện số tiền tối thiểu.\nCông văn tham khảo: CV 68- Quy định dàn xếp tín dụng',
321
+ ]
322
+ embeddings = model.encode(sentences)
323
+ print(embeddings.shape)
324
+ # [3, 1024]
325
+
326
+ # Get the similarity scores for the embeddings
327
+ similarities = model.similarity(embeddings, embeddings)
328
+ print(similarities)
329
+ # tensor([[1.0000, 0.8849, 0.0306],
330
+ # [0.8849, 1.0000, 0.0400],
331
+ # [0.0306, 0.0400, 1.0000]])
332
+ ```
333
+
334
+ <!--
335
+ ### Direct Usage (Transformers)
336
+
337
+ <details><summary>Click to see the direct usage in Transformers</summary>
338
+
339
+ </details>
340
+ -->
341
+
342
+ <!--
343
+ ### Downstream Usage (Sentence Transformers)
344
+
345
+ You can finetune this model on your own dataset.
346
+
347
+ <details><summary>Click to expand</summary>
348
+
349
+ </details>
350
+ -->
351
+
352
+ <!--
353
+ ### Out-of-Scope Use
354
+
355
+ *List how the model may foreseeably be misused and address what users ought not to do with the model.*
356
+ -->
357
+
358
+ ## Evaluation
359
+
360
+ ### Metrics
361
+
362
+ #### Information Retrieval
363
+
364
+ * Dataset: `dim_1024`
365
+ * Evaluated with [<code>InformationRetrievalEvaluator</code>](https://sbert.net/docs/package_reference/sentence_transformer/evaluation.html#sentence_transformers.evaluation.InformationRetrievalEvaluator) with these parameters:
366
+ ```json
367
+ {
368
+ "truncate_dim": 1024
369
+ }
370
+ ```
371
+
372
+ | Metric | Value |
373
+ |:--------------------|:-----------|
374
+ | cosine_accuracy@1 | 0.8839 |
375
+ | cosine_accuracy@3 | 0.8951 |
376
+ | cosine_accuracy@5 | 0.8951 |
377
+ | cosine_accuracy@10 | 0.9598 |
378
+ | cosine_precision@1 | 0.8839 |
379
+ | cosine_precision@3 | 0.8876 |
380
+ | cosine_precision@5 | 0.8853 |
381
+ | cosine_precision@10 | 0.5592 |
382
+ | cosine_recall@1 | 0.1473 |
383
+ | cosine_recall@3 | 0.4438 |
384
+ | cosine_recall@5 | 0.7377 |
385
+ | cosine_recall@10 | 0.9319 |
386
+ | **cosine_ndcg@10** | **0.9115** |
387
+ | cosine_mrr@10 | 0.8984 |
388
+ | cosine_map@100 | 0.9149 |
389
+
390
+ #### Information Retrieval
391
+
392
+ * Dataset: `dim_768`
393
+ * Evaluated with [<code>InformationRetrievalEvaluator</code>](https://sbert.net/docs/package_reference/sentence_transformer/evaluation.html#sentence_transformers.evaluation.InformationRetrievalEvaluator) with these parameters:
394
+ ```json
395
+ {
396
+ "truncate_dim": 768
397
+ }
398
+ ```
399
+
400
+ | Metric | Value |
401
+ |:--------------------|:-----------|
402
+ | cosine_accuracy@1 | 0.8839 |
403
+ | cosine_accuracy@3 | 0.8929 |
404
+ | cosine_accuracy@5 | 0.8951 |
405
+ | cosine_accuracy@10 | 0.9554 |
406
+ | cosine_precision@1 | 0.8839 |
407
+ | cosine_precision@3 | 0.8869 |
408
+ | cosine_precision@5 | 0.8844 |
409
+ | cosine_precision@10 | 0.5571 |
410
+ | cosine_recall@1 | 0.1473 |
411
+ | cosine_recall@3 | 0.4435 |
412
+ | cosine_recall@5 | 0.737 |
413
+ | cosine_recall@10 | 0.9286 |
414
+ | **cosine_ndcg@10** | **0.9094** |
415
+ | cosine_mrr@10 | 0.8971 |
416
+ | cosine_map@100 | 0.9136 |
417
+
418
+ <!--
419
+ ## Bias, Risks and Limitations
420
+
421
+ *What are the known or foreseeable issues stemming from this model? You could also flag here known failure cases or weaknesses of the model.*
422
+ -->
423
+
424
+ <!--
425
+ ### Recommendations
426
+
427
+ *What are recommendations with respect to the foreseeable issues? For example, filtering explicit content.*
428
+ -->
429
+
430
+ ## Training Details
431
+
432
+ ### Training Dataset
433
+
434
+ #### json
435
+
436
+ * Dataset: json
437
+ * Size: 8,494 training samples
438
+ * Columns: <code>anchor</code> and <code>positive</code>
439
+ * Approximate statistics based on the first 1000 samples:
440
+ | | anchor | positive |
441
+ |:--------|:------------------------------------------------------------------------------------|:--------------------------------------------------------------------------------------|
442
+ | type | string | string |
443
+ | details | <ul><li>min: 10 tokens</li><li>mean: 47.17 tokens</li><li>max: 569 tokens</li></ul> | <ul><li>min: 24 tokens</li><li>mean: 145.25 tokens</li><li>max: 1253 tokens</li></ul> |
444
+ * Samples:
445
+ | anchor | positive |
446
+ |:--------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------|:---------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------|
447
+ | <code>Khi nhân viên ngân hàng hướng dẫn khách hàng cá nhân đăng ký biến động số dư từ 50.000 đồng, họ cần giải thích rõ thành phần [Số GTTT] trong cú pháp. Hãy mô tả những loại giấy tờ hợp lệ phù hợp với [Số GTTT].</code> | <code>Câu hỏi: Cú pháp đăng ký nhận thông báo biến động số dư từ 50.000 đồng trở lên là gì? <br>Trả lời: Cá nhân: ACB SMSCN50 [Số GTTT]; <br><br>Doanh nghiệp: ACB SMSDN50 [Mã số thuế/Giấy phép thành lập]; Gửi đến đầu số 997. <br><br>Công văn tham khảo: WI-01/NHS - V/v Hướng dẫn đăng ký và sử dụng dịch vụ ACB - SMS Banking </code> |
448
+ | <code>Theo Pháp lệnh ngoại hối 28/2005/PL-UBTVQH11 và Thông tư 20/2022/TT-NHNN của NHNN cho phép người cư trú là công dân Việt Nam được chuyển tiền cho mục đích học tập tuy nhiên chưa quy định rõ về hình thức học tập online. Theo QĐ số 09/QĐ-HHNN - Bộ quy tắc của HHNN có hướng dẫn các chi phí trước khi được cơ sở đào tạo nước ngoài chấp nhận nhập học (phí tư vấn du học, phí xử lý hồ sơ xin nhập học…), học phí cho các khóa học online ở nước ngoài là chi phí nhập khẩu dịch vụ.   <br>Câu  hỏi: <br>Các chi phí liên quan được đề cập bên trên có thể được hiểu là thanh toán liên quan học tập/phí, lệ phí hay hiểu thế nào cho đúng. <br> </code> | <code>Câu hỏi: Theo Pháp lệnh ngoại hối 28/2005/PL-UBTVQH11 và Thông tư 20/2022/TT-NHNN của NHNN cho phép người cư trú là công dân Việt Nam được chuyển tiền cho mục đích học tập tuy nhiên chưa quy định rõ về hình thức học tập online. Theo QĐ số 09/QĐ-HHNN - Bộ quy tắc của HHNN có hướng dẫn các chi phí trước khi được cơ sở đào tạo nước ngoài chấp nhận nhập học (phí tư vấn du học, phí xử lý hồ sơ xin nhập học…), học phí cho các khóa học online ở nước ngoài là chi phí nhập khẩu dịch vụ.   <br>Câu  hỏi: <br>Các chi phí liên quan được đề cập bên trên có thể được hiểu là thanh toán liên quan học tập/phí, lệ phí hay hiểu thế nào cho đúng. <br> <br>Trả lời: Căn cứ các quy định pháp luật có liên quan (Pháp lệnh ngoại hối, Nghị định 70/2014/NĐ-CP,  Thông tư 20/2022/TT-NHNN), không có quy định cụ thể về các khoản chi phí liên quan đến các khóa học online ở nước ngoài. Về nguyên tắc, (i) học tập là phải ra nước ngoài/tham gia khóa học tại cơ sở đào tạo nước ngoài; (ii) thanh toán phí/lệ phí thì Người thụ hưởng phải...</code> |
449
+ | <code>So sánh hiệu quả và rủi ro khi sử dụng phương tiện truyền thông đại chúng (internet, báo chí, truyền hình, mạng xã hội) so với hình thức đề xuất nội bộ (nhân viên, KPP, Ban lãnh đạo) trong việc tìm nhà thầu thuê ngoài.</code> | <code>Câu hỏi: Các kênh nào được sử dụng để tìm kiếm đối tác thuê ngoài?<br>Trả lời: Phương tiện truyền thông (internet, báo chí, truyền hình, phát thanh, mạng xã hội,…). Sự giới thiệu, đề xuất của nhân viên XLN, KPP, Đơn vị Hội sở, Ban lãnh đạo,…<br>Công văn tham khảo: Mục II Phụ lục 7 QP 7.191</code> |
450
+ * Loss: [<code>MatryoshkaLoss</code>](https://sbert.net/docs/package_reference/sentence_transformer/losses.html#matryoshkaloss) with these parameters:
451
+ ```json
452
+ {
453
+ "loss": "MultipleNegativesRankingLoss",
454
+ "matryoshka_dims": [
455
+ 1024,
456
+ 768
457
+ ],
458
+ "matryoshka_weights": [
459
+ 1,
460
+ 1
461
+ ],
462
+ "n_dims_per_step": -1
463
+ }
464
+ ```
465
+
466
+ ### Training Hyperparameters
467
+ #### Non-Default Hyperparameters
468
+
469
+ - `eval_strategy`: epoch
470
+ - `gradient_accumulation_steps`: 8
471
+ - `learning_rate`: 2e-05
472
+ - `num_train_epochs`: 6
473
+ - `lr_scheduler_type`: cosine
474
+ - `warmup_ratio`: 0.1
475
+ - `bf16`: True
476
+ - `tf32`: False
477
+ - `load_best_model_at_end`: True
478
+ - `batch_sampler`: no_duplicates
479
+
480
+ #### All Hyperparameters
481
+ <details><summary>Click to expand</summary>
482
+
483
+ - `overwrite_output_dir`: False
484
+ - `do_predict`: False
485
+ - `eval_strategy`: epoch
486
+ - `prediction_loss_only`: True
487
+ - `per_device_train_batch_size`: 8
488
+ - `per_device_eval_batch_size`: 8
489
+ - `per_gpu_train_batch_size`: None
490
+ - `per_gpu_eval_batch_size`: None
491
+ - `gradient_accumulation_steps`: 8
492
+ - `eval_accumulation_steps`: None
493
+ - `torch_empty_cache_steps`: None
494
+ - `learning_rate`: 2e-05
495
+ - `weight_decay`: 0.0
496
+ - `adam_beta1`: 0.9
497
+ - `adam_beta2`: 0.999
498
+ - `adam_epsilon`: 1e-08
499
+ - `max_grad_norm`: 1.0
500
+ - `num_train_epochs`: 6
501
+ - `max_steps`: -1
502
+ - `lr_scheduler_type`: cosine
503
+ - `lr_scheduler_kwargs`: {}
504
+ - `warmup_ratio`: 0.1
505
+ - `warmup_steps`: 0
506
+ - `log_level`: passive
507
+ - `log_level_replica`: warning
508
+ - `log_on_each_node`: True
509
+ - `logging_nan_inf_filter`: True
510
+ - `save_safetensors`: True
511
+ - `save_on_each_node`: False
512
+ - `save_only_model`: False
513
+ - `restore_callback_states_from_checkpoint`: False
514
+ - `no_cuda`: False
515
+ - `use_cpu`: False
516
+ - `use_mps_device`: False
517
+ - `seed`: 42
518
+ - `data_seed`: None
519
+ - `jit_mode_eval`: False
520
+ - `bf16`: True
521
+ - `fp16`: False
522
+ - `fp16_opt_level`: O1
523
+ - `half_precision_backend`: auto
524
+ - `bf16_full_eval`: False
525
+ - `fp16_full_eval`: False
526
+ - `tf32`: False
527
+ - `local_rank`: 0
528
+ - `ddp_backend`: None
529
+ - `tpu_num_cores`: None
530
+ - `tpu_metrics_debug`: False
531
+ - `debug`: []
532
+ - `dataloader_drop_last`: False
533
+ - `dataloader_num_workers`: 0
534
+ - `dataloader_prefetch_factor`: None
535
+ - `past_index`: -1
536
+ - `disable_tqdm`: False
537
+ - `remove_unused_columns`: True
538
+ - `label_names`: None
539
+ - `load_best_model_at_end`: True
540
+ - `ignore_data_skip`: False
541
+ - `fsdp`: []
542
+ - `fsdp_min_num_params`: 0
543
+ - `fsdp_config`: {'min_num_params': 0, 'xla': False, 'xla_fsdp_v2': False, 'xla_fsdp_grad_ckpt': False}
544
+ - `fsdp_transformer_layer_cls_to_wrap`: None
545
+ - `accelerator_config`: {'split_batches': False, 'dispatch_batches': None, 'even_batches': True, 'use_seedable_sampler': True, 'non_blocking': False, 'gradient_accumulation_kwargs': None}
546
+ - `parallelism_config`: None
547
+ - `deepspeed`: None
548
+ - `label_smoothing_factor`: 0.0
549
+ - `optim`: adamw_torch_fused
550
+ - `optim_args`: None
551
+ - `adafactor`: False
552
+ - `group_by_length`: False
553
+ - `length_column_name`: length
554
+ - `project`: huggingface
555
+ - `trackio_space_id`: trackio
556
+ - `ddp_find_unused_parameters`: None
557
+ - `ddp_bucket_cap_mb`: None
558
+ - `ddp_broadcast_buffers`: False
559
+ - `dataloader_pin_memory`: True
560
+ - `dataloader_persistent_workers`: False
561
+ - `skip_memory_metrics`: True
562
+ - `use_legacy_prediction_loop`: False
563
+ - `push_to_hub`: False
564
+ - `resume_from_checkpoint`: None
565
+ - `hub_model_id`: None
566
+ - `hub_strategy`: every_save
567
+ - `hub_private_repo`: None
568
+ - `hub_always_push`: False
569
+ - `hub_revision`: None
570
+ - `gradient_checkpointing`: False
571
+ - `gradient_checkpointing_kwargs`: None
572
+ - `include_inputs_for_metrics`: False
573
+ - `include_for_metrics`: []
574
+ - `eval_do_concat_batches`: True
575
+ - `fp16_backend`: auto
576
+ - `push_to_hub_model_id`: None
577
+ - `push_to_hub_organization`: None
578
+ - `mp_parameters`:
579
+ - `auto_find_batch_size`: False
580
+ - `full_determinism`: False
581
+ - `torchdynamo`: None
582
+ - `ray_scope`: last
583
+ - `ddp_timeout`: 1800
584
+ - `torch_compile`: False
585
+ - `torch_compile_backend`: None
586
+ - `torch_compile_mode`: None
587
+ - `include_tokens_per_second`: False
588
+ - `include_num_input_tokens_seen`: no
589
+ - `neftune_noise_alpha`: None
590
+ - `optim_target_modules`: None
591
+ - `batch_eval_metrics`: False
592
+ - `eval_on_start`: False
593
+ - `use_liger_kernel`: False
594
+ - `liger_kernel_config`: None
595
+ - `eval_use_gather_object`: False
596
+ - `average_tokens_across_devices`: True
597
+ - `prompts`: None
598
+ - `batch_sampler`: no_duplicates
599
+ - `multi_dataset_batch_sampler`: proportional
600
+ - `router_mapping`: {}
601
+ - `learning_rate_mapping`: {}
602
+
603
+ </details>
604
+
605
+ ### Training Logs
606
+ | Epoch | Step | Training Loss | dim_1024_cosine_ndcg@10 | dim_768_cosine_ndcg@10 |
607
+ |:-------:|:-------:|:-------------:|:-----------------------:|:----------------------:|
608
+ | 0.0753 | 10 | 0.0651 | - | - |
609
+ | 0.1507 | 20 | 0.0414 | - | - |
610
+ | 0.2260 | 30 | 0.0323 | - | - |
611
+ | 0.3013 | 40 | 0.0265 | - | - |
612
+ | 0.3766 | 50 | 0.0511 | - | - |
613
+ | 0.4520 | 60 | 0.023 | - | - |
614
+ | 0.5273 | 70 | 0.0309 | - | - |
615
+ | 0.6026 | 80 | 0.0241 | - | - |
616
+ | 0.6780 | 90 | 0.0405 | - | - |
617
+ | 0.7533 | 100 | 0.0276 | - | - |
618
+ | 0.8286 | 110 | 0.0096 | - | - |
619
+ | 0.9040 | 120 | 0.042 | - | - |
620
+ | 0.9793 | 130 | 0.025 | - | - |
621
+ | 1.0 | 133 | - | 0.9036 | 0.9010 |
622
+ | 1.0527 | 140 | 0.0096 | - | - |
623
+ | 1.1281 | 150 | 0.0133 | - | - |
624
+ | 1.2034 | 160 | 0.0116 | - | - |
625
+ | 1.2787 | 170 | 0.0088 | - | - |
626
+ | 1.3540 | 180 | 0.0102 | - | - |
627
+ | 1.4294 | 190 | 0.0058 | - | - |
628
+ | 1.5047 | 200 | 0.0066 | - | - |
629
+ | 1.5800 | 210 | 0.0051 | - | - |
630
+ | 1.6554 | 220 | 0.0262 | - | - |
631
+ | 1.7307 | 230 | 0.0081 | - | - |
632
+ | 1.8060 | 240 | 0.015 | - | - |
633
+ | 1.8814 | 250 | 0.0117 | - | - |
634
+ | 1.9567 | 260 | 0.0065 | - | - |
635
+ | 2.0 | 266 | - | 0.9043 | 0.9031 |
636
+ | 2.0301 | 270 | 0.0169 | - | - |
637
+ | 2.1055 | 280 | 0.0105 | - | - |
638
+ | 2.1808 | 290 | 0.0076 | - | - |
639
+ | 2.2561 | 300 | 0.0072 | - | - |
640
+ | 2.3315 | 310 | 0.0068 | - | - |
641
+ | 2.4068 | 320 | 0.0092 | - | - |
642
+ | 2.4821 | 330 | 0.0189 | - | - |
643
+ | 2.5574 | 340 | 0.0157 | - | - |
644
+ | 2.6328 | 350 | 0.0142 | - | - |
645
+ | 2.7081 | 360 | 0.0082 | - | - |
646
+ | 2.7834 | 370 | 0.0161 | - | - |
647
+ | 2.8588 | 380 | 0.0052 | - | - |
648
+ | 2.9341 | 390 | 0.0094 | - | - |
649
+ | **3.0** | **399** | **-** | **0.912** | **0.9088** |
650
+ | 3.0075 | 400 | 0.0052 | - | - |
651
+ | 3.0829 | 410 | 0.0095 | - | - |
652
+ | 3.1582 | 420 | 0.005 | - | - |
653
+ | 3.2335 | 430 | 0.004 | - | - |
654
+ | 3.3089 | 440 | 0.0054 | - | - |
655
+ | 3.3842 | 450 | 0.0063 | - | - |
656
+ | 3.4595 | 460 | 0.0061 | - | - |
657
+ | 3.5348 | 470 | 0.0045 | - | - |
658
+ | 3.6102 | 480 | 0.0101 | - | - |
659
+ | 3.6855 | 490 | 0.0059 | - | - |
660
+ | 3.7608 | 500 | 0.0096 | - | - |
661
+ | 3.8362 | 510 | 0.003 | - | - |
662
+ | 3.9115 | 520 | 0.0106 | - | - |
663
+ | 3.9868 | 530 | 0.0097 | - | - |
664
+ | 4.0 | 532 | - | 0.9125 | 0.9116 |
665
+ | 4.0603 | 540 | 0.0049 | - | - |
666
+ | 4.1356 | 550 | 0.0052 | - | - |
667
+ | 4.2109 | 560 | 0.0063 | - | - |
668
+ | 4.2863 | 570 | 0.0058 | - | - |
669
+ | 4.3616 | 580 | 0.0058 | - | - |
670
+ | 4.4369 | 590 | 0.0088 | - | - |
671
+ | 4.5122 | 600 | 0.0057 | - | - |
672
+ | 4.5876 | 610 | 0.0051 | - | - |
673
+ | 4.6629 | 620 | 0.0029 | - | - |
674
+ | 4.7382 | 630 | 0.0137 | - | - |
675
+ | 4.8136 | 640 | 0.0064 | - | - |
676
+ | 4.8889 | 650 | 0.0107 | - | - |
677
+ | 4.9642 | 660 | 0.0047 | - | - |
678
+ | 5.0 | 665 | - | 0.9103 | 0.9076 |
679
+ | 5.0377 | 670 | 0.007 | - | - |
680
+ | 5.1130 | 680 | 0.0046 | - | - |
681
+ | 5.1883 | 690 | 0.0033 | - | - |
682
+ | 5.2637 | 700 | 0.0034 | - | - |
683
+ | 5.3390 | 710 | 0.0015 | - | - |
684
+ | 5.4143 | 720 | 0.0111 | - | - |
685
+ | 5.4896 | 730 | 0.0075 | - | - |
686
+ | 5.5650 | 740 | 0.0081 | - | - |
687
+ | 5.6403 | 750 | 0.0016 | - | - |
688
+ | 5.7156 | 760 | 0.0144 | - | - |
689
+ | 5.7910 | 770 | 0.0053 | - | - |
690
+ | 5.8663 | 780 | 0.003 | - | - |
691
+ | 5.9416 | 790 | 0.0043 | - | - |
692
+ | 6.0 | 798 | - | 0.9115 | 0.9094 |
693
+
694
+ * The bold row denotes the saved checkpoint.
695
+
696
+ ### Framework Versions
697
+ - Python: 3.12.11
698
+ - Sentence Transformers: 5.1.1
699
+ - Transformers: 4.57.0
700
+ - PyTorch: 2.8.0+cu126
701
+ - Accelerate: 1.10.1
702
+ - Datasets: 4.0.0
703
+ - Tokenizers: 0.22.1
704
+
705
+ ## Citation
706
+
707
+ ### BibTeX
708
+
709
+ #### Sentence Transformers
710
+ ```bibtex
711
+ @inproceedings{reimers-2019-sentence-bert,
712
+ title = "Sentence-BERT: Sentence Embeddings using Siamese BERT-Networks",
713
+ author = "Reimers, Nils and Gurevych, Iryna",
714
+ booktitle = "Proceedings of the 2019 Conference on Empirical Methods in Natural Language Processing",
715
+ month = "11",
716
+ year = "2019",
717
+ publisher = "Association for Computational Linguistics",
718
+ url = "https://arxiv.org/abs/1908.10084",
719
+ }
720
+ ```
721
+
722
+ #### MatryoshkaLoss
723
+ ```bibtex
724
+ @misc{kusupati2024matryoshka,
725
+ title={Matryoshka Representation Learning},
726
+ author={Aditya Kusupati and Gantavya Bhatt and Aniket Rege and Matthew Wallingford and Aditya Sinha and Vivek Ramanujan and William Howard-Snyder and Kaifeng Chen and Sham Kakade and Prateek Jain and Ali Farhadi},
727
+ year={2024},
728
+ eprint={2205.13147},
729
+ archivePrefix={arXiv},
730
+ primaryClass={cs.LG}
731
+ }
732
+ ```
733
+
734
+ #### MultipleNegativesRankingLoss
735
+ ```bibtex
736
+ @misc{henderson2017efficient,
737
+ title={Efficient Natural Language Response Suggestion for Smart Reply},
738
+ author={Matthew Henderson and Rami Al-Rfou and Brian Strope and Yun-hsuan Sung and Laszlo Lukacs and Ruiqi Guo and Sanjiv Kumar and Balint Miklos and Ray Kurzweil},
739
+ year={2017},
740
+ eprint={1705.00652},
741
+ archivePrefix={arXiv},
742
+ primaryClass={cs.CL}
743
+ }
744
+ ```
745
+
746
+ <!--
747
+ ## Glossary
748
+
749
+ *Clearly define terms in order to be accessible across audiences.*
750
+ -->
751
+
752
+ <!--
753
+ ## Model Card Authors
754
+
755
+ *Lists the people who create the model card, providing recognition and accountability for the detailed work that goes into its construction.*
756
+ -->
757
+
758
+ <!--
759
+ ## Model Card Contact
760
+
761
+ *Provides a way for people who have updates to the Model Card, suggestions, or questions, to contact the Model Card authors.*
762
+ -->
config.json ADDED
@@ -0,0 +1,27 @@
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
1
+ {
2
+ "architectures": [
3
+ "XLMRobertaModel"
4
+ ],
5
+ "attention_probs_dropout_prob": 0.1,
6
+ "bos_token_id": 0,
7
+ "classifier_dropout": null,
8
+ "dtype": "float32",
9
+ "eos_token_id": 2,
10
+ "hidden_act": "gelu",
11
+ "hidden_dropout_prob": 0.1,
12
+ "hidden_size": 1024,
13
+ "initializer_range": 0.02,
14
+ "intermediate_size": 4096,
15
+ "layer_norm_eps": 1e-05,
16
+ "max_position_embeddings": 8194,
17
+ "model_type": "xlm-roberta",
18
+ "num_attention_heads": 16,
19
+ "num_hidden_layers": 24,
20
+ "output_past": true,
21
+ "pad_token_id": 1,
22
+ "position_embedding_type": "absolute",
23
+ "transformers_version": "4.57.0",
24
+ "type_vocab_size": 1,
25
+ "use_cache": true,
26
+ "vocab_size": 250002
27
+ }
config_sentence_transformers.json ADDED
@@ -0,0 +1,14 @@
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
1
+ {
2
+ "__version__": {
3
+ "sentence_transformers": "5.1.1",
4
+ "transformers": "4.57.0",
5
+ "pytorch": "2.8.0+cu126"
6
+ },
7
+ "prompts": {
8
+ "query": "",
9
+ "document": ""
10
+ },
11
+ "default_prompt_name": null,
12
+ "similarity_fn_name": "cosine",
13
+ "model_type": "SentenceTransformer"
14
+ }
model.safetensors ADDED
@@ -0,0 +1,3 @@
 
 
 
 
1
+ version https://git-lfs.github.com/spec/v1
2
+ oid sha256:c694f9f7b6f7cee2a7a0fc165d9afe682ca5f564f324c746cf34b51f7b455023
3
+ size 2271064456
modules.json ADDED
@@ -0,0 +1,20 @@
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
1
+ [
2
+ {
3
+ "idx": 0,
4
+ "name": "0",
5
+ "path": "",
6
+ "type": "sentence_transformers.models.Transformer"
7
+ },
8
+ {
9
+ "idx": 1,
10
+ "name": "1",
11
+ "path": "1_Pooling",
12
+ "type": "sentence_transformers.models.Pooling"
13
+ },
14
+ {
15
+ "idx": 2,
16
+ "name": "2",
17
+ "path": "2_Normalize",
18
+ "type": "sentence_transformers.models.Normalize"
19
+ }
20
+ ]
sentence_bert_config.json ADDED
@@ -0,0 +1,4 @@
 
 
 
 
 
1
+ {
2
+ "max_seq_length": 8192,
3
+ "do_lower_case": false
4
+ }
sentencepiece.bpe.model ADDED
@@ -0,0 +1,3 @@
 
 
 
 
1
+ version https://git-lfs.github.com/spec/v1
2
+ oid sha256:cfc8146abe2a0488e9e2a0c56de7952f7c11ab059eca145a0a727afce0db2865
3
+ size 5069051
special_tokens_map.json ADDED
@@ -0,0 +1,51 @@
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
1
+ {
2
+ "bos_token": {
3
+ "content": "<s>",
4
+ "lstrip": false,
5
+ "normalized": false,
6
+ "rstrip": false,
7
+ "single_word": false
8
+ },
9
+ "cls_token": {
10
+ "content": "<s>",
11
+ "lstrip": false,
12
+ "normalized": false,
13
+ "rstrip": false,
14
+ "single_word": false
15
+ },
16
+ "eos_token": {
17
+ "content": "</s>",
18
+ "lstrip": false,
19
+ "normalized": false,
20
+ "rstrip": false,
21
+ "single_word": false
22
+ },
23
+ "mask_token": {
24
+ "content": "<mask>",
25
+ "lstrip": true,
26
+ "normalized": false,
27
+ "rstrip": false,
28
+ "single_word": false
29
+ },
30
+ "pad_token": {
31
+ "content": "<pad>",
32
+ "lstrip": false,
33
+ "normalized": false,
34
+ "rstrip": false,
35
+ "single_word": false
36
+ },
37
+ "sep_token": {
38
+ "content": "</s>",
39
+ "lstrip": false,
40
+ "normalized": false,
41
+ "rstrip": false,
42
+ "single_word": false
43
+ },
44
+ "unk_token": {
45
+ "content": "<unk>",
46
+ "lstrip": false,
47
+ "normalized": false,
48
+ "rstrip": false,
49
+ "single_word": false
50
+ }
51
+ }
tokenizer.json ADDED
@@ -0,0 +1,3 @@
 
 
 
 
1
+ version https://git-lfs.github.com/spec/v1
2
+ oid sha256:222975faa02f5257c6e8c734e85973e48c8d42d7d37d90b894c73efa1841d76a
3
+ size 17083154
tokenizer_config.json ADDED
@@ -0,0 +1,63 @@
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
1
+ {
2
+ "added_tokens_decoder": {
3
+ "0": {
4
+ "content": "<s>",
5
+ "lstrip": false,
6
+ "normalized": false,
7
+ "rstrip": false,
8
+ "single_word": false,
9
+ "special": true
10
+ },
11
+ "1": {
12
+ "content": "<pad>",
13
+ "lstrip": false,
14
+ "normalized": false,
15
+ "rstrip": false,
16
+ "single_word": false,
17
+ "special": true
18
+ },
19
+ "2": {
20
+ "content": "</s>",
21
+ "lstrip": false,
22
+ "normalized": false,
23
+ "rstrip": false,
24
+ "single_word": false,
25
+ "special": true
26
+ },
27
+ "3": {
28
+ "content": "<unk>",
29
+ "lstrip": false,
30
+ "normalized": false,
31
+ "rstrip": false,
32
+ "single_word": false,
33
+ "special": true
34
+ },
35
+ "250001": {
36
+ "content": "<mask>",
37
+ "lstrip": true,
38
+ "normalized": false,
39
+ "rstrip": false,
40
+ "single_word": false,
41
+ "special": true
42
+ }
43
+ },
44
+ "bos_token": "<s>",
45
+ "clean_up_tokenization_spaces": true,
46
+ "cls_token": "<s>",
47
+ "eos_token": "</s>",
48
+ "extra_special_tokens": {},
49
+ "mask_token": "<mask>",
50
+ "max_length": 8192,
51
+ "model_max_length": 8192,
52
+ "pad_to_multiple_of": null,
53
+ "pad_token": "<pad>",
54
+ "pad_token_type_id": 0,
55
+ "padding_side": "right",
56
+ "sep_token": "</s>",
57
+ "sp_model_kwargs": {},
58
+ "stride": 0,
59
+ "tokenizer_class": "XLMRobertaTokenizer",
60
+ "truncation_side": "right",
61
+ "truncation_strategy": "longest_first",
62
+ "unk_token": "<unk>"
63
+ }