| | --- |
| | pipeline_tag: text-generation |
| | license: mit |
| | language: |
| | - es |
| | - en |
| | tags: |
| | - bittensor |
| | - subnet-20 |
| | - bitagent |
| | - phi2 |
| | - lora |
| | - bfcl |
| | - tool-calling |
| | base_model: microsoft/phi-2 |
| | library_name: transformers |
| | model_type: causal-lm |
| | inference: true |
| | --- |
| | |
| | # 🚀 Antonio Phi-2 BitAgent Merged (Subnet-20) |
| |
|
| | **Autor:** [@Tonit23](https://huggingface.co/Tonit23) |
| | **Base:** `microsoft/phi-2` |
| | **Fine-tune:** [`antonio-phi2-bitagent-lora`](https://huggingface.co/Tonit23/antonio-phi2-bitagent-lora) |
| | **Subnet:** 🧠 [Bittensor Subnet-20 — BitAgent](https://rizzo.network/subnet-20/) |
| | **Publicación:** octubre 2025 |
| |
|
| | --- |
| |
|
| | ## 🧩 Descripción general |
| |
|
| | `antonio-phi2-bitagent-merged` es una versión **LoRA-fusionada** del modelo `microsoft/phi-2`, adaptada específicamente para el entorno **BitAgent (SN20)** dentro del ecosistema **Bittensor Finney**. |
| |
|
| | Este modelo está optimizado para tareas de **razonamiento en español e inglés**, **inferencia compacta** y **tool-calling semántico** (uso de funciones o herramientas internas), usando un esquema compatible con los validadores SN20. |
| |
|
| | --- |
| |
|
| | ## ⚙️ Detalles técnicos |
| |
|
| | | Propiedad | Valor | |
| | |-------------------------|-------| |
| | | Modelo base | `microsoft/phi-2` | |
| | | Fine-tune | `LoRA` sobre dataset de prompts técnicos BFCL | |
| | | Parámetros totales | ~7.24 B | |
| | | Parámetros entrenables | 3.4 M (0.047 %) | |
| | | Framework | PyTorch + Transformers + PEFT | |
| | | Licencia | MIT | |
| | | Hardware objetivo | CPU / GPU (float16) | |
| |
|
| | ### Entrenamiento |
| | El modelo fue fine-tuneado con **LoRA (Low-Rank Adaptation)** en un conjunto de datos mixto de tareas técnicas: |
| | - prompts de razonamiento lógico, instrucciones BFCL y tool-calling |
| | - pares entrada/salida basados en análisis ABAP y Python |
| | - mezclas en español e inglés |
| |
|
| | --- |
| |
|
| | ## 🧠 Uso |
| |
|
| | ### Inferencia local (Transformers) |
| |
|
| | ```python |
| | from transformers import AutoModelForCausalLM, AutoTokenizer |
| | import torch |
| | |
| | model = AutoModelForCausalLM.from_pretrained("Tonit23/antonio-phi2-bitagent-merged", torch_dtype=torch.float16) |
| | tokenizer = AutoTokenizer.from_pretrained("Tonit23/antonio-phi2-bitagent-merged") |
| | |
| | prompt = "Explica el proceso de staking en la red Bittensor Finney:" |
| | inputs = tokenizer(prompt, return_tensors="pt") |
| | |
| | outputs = model.generate(**inputs, max_new_tokens=200) |
| | print(tokenizer.decode(outputs[0], skip_special_tokens=True)) |
| | |