andresrp commited on
Commit
e8f7697
·
verified ·
1 Parent(s): fa8bbc3

Update handler.py

Browse files
Files changed (1) hide show
  1. handler.py +2 -12
handler.py CHANGED
@@ -18,7 +18,6 @@ class EndpointHandler:
18
  self.processor = AutoProcessor.from_pretrained(
19
  model_dir, trust_remote_code=True, torch_dtype="auto", device_map="auto"
20
  )
21
- self.processor.tokenizer.padding_side = "left"
22
 
23
  self.model = AutoModelForCausalLM.from_pretrained(
24
  model_dir,
@@ -36,6 +35,8 @@ class EndpointHandler:
36
  en vez de un único 'prompt' replicado.
37
  """
38
  try:
 
 
39
  # Construimos el texto que va antes del prompt real
40
  batch_texts = [f"User: {p} Assistant:" for p in prompts_list]
41
 
@@ -45,17 +46,6 @@ class EndpointHandler:
45
  for text in batch_texts
46
  ]
47
 
48
- # tokens_list = [
49
- # self.processor.tokenizer.encode(
50
- # " " + text,
51
- # add_special_tokens=False,
52
- # padding='longest', # Asegura que todas las secuencias tengan la misma longitud
53
- # truncation=True, # Opcional: trunca si hay una longitud máxima definida
54
- # max_length=1536 # Asegurar que no se pase del límite del modelo
55
- # )
56
- # for text in batch_texts
57
- # ]
58
-
59
  outputs_list = []
60
  images_kwargs = {
61
  "max_crops": images_config.get("max_crops", 12) if images_config else 12,
 
18
  self.processor = AutoProcessor.from_pretrained(
19
  model_dir, trust_remote_code=True, torch_dtype="auto", device_map="auto"
20
  )
 
21
 
22
  self.model = AutoModelForCausalLM.from_pretrained(
23
  model_dir,
 
35
  en vez de un único 'prompt' replicado.
36
  """
37
  try:
38
+ self.processor.tokenizer.padding_side = "left"
39
+
40
  # Construimos el texto que va antes del prompt real
41
  batch_texts = [f"User: {p} Assistant:" for p in prompts_list]
42
 
 
46
  for text in batch_texts
47
  ]
48
 
 
 
 
 
 
 
 
 
 
 
 
49
  outputs_list = []
50
  images_kwargs = {
51
  "max_crops": images_config.get("max_crops", 12) if images_config else 12,