Alex Cheema vor 1 Jahr
Ursprung
Commit
c691205591
1 geänderte Dateien mit 0 neuen und 1 gelöschten Zeilen
  1. 0 1
      exo/inference/mlx/test_sharded_llama.py

+ 0 - 1
exo/inference/mlx/test_sharded_llama.py

@@ -28,7 +28,6 @@ for _ in range(max_tokens):
 
 print("full response: ", full_tokenizer.decode(full_generated_tokens))
 
-
 sharded_generated_tokens = []
 sharded_resp = prompt_tokens
 for _ in range(max_tokens):