jing-ju commited on
Commit
f381b1b
·
verified ·
1 Parent(s): 2c0dade

Update README.md

Browse files
Files changed (1) hide show
  1. README.md +29 -20
README.md CHANGED
@@ -1,34 +1,43 @@
 
 
 
 
 
 
 
 
 
 
 
 
 
1
  # Hunyuan-MT Translation (Hugging Face Space - Free CPU)
2
 
3
- **Demo dịch đa ngôn ngữ** dùng mô hình **Tencent Hunyuan-MT** thông qua **Hugging Face Serverless Inference API**, chạy được trên **Space CPU (free)** — không cần GPU.
4
 
5
  ## Tính năng
6
  - Chọn mô hình:
7
  - `tencent/Hunyuan-MT-7B-fp8` (khuyến nghị cho serverless)
8
  - `tencent/Hunyuan-MT-7B`
9
- - Hỗ trợ 30+ ngôn ngữ (bao gồm `zh`, `zh-Hant`, `yue`, `en`, `vi`, v.v.).
10
- - Prompt tuân theo hướng dẫn của model card:
11
- - **ZH <=> XX**: `把下面的文本翻译成<target_language>,不要额外解释。`
12
- - **XX <=> XX**: `Translate the following segment into <target_language>, without additional explanation.`
13
 
14
  ## Triển khai
15
- 1. Tạo Space mới (Python) trên Hugging Face và chọn **Hardware: CPU Basic (Free)**.
16
- 2. Tải 3 file: `app.py`, `requirements.txt`, `README.md` vào repo Space.
17
- 3. (Tùy chọn) Vào **Settings → Repository secrets** tạo secret:
18
- - `HF_TOKEN`: token của bạn để tăng hạn mức Inference API.
19
- 4. Bấm **Restart** Space sau khi commit.
20
 
21
  ## Biến môi trường (tùy chọn)
22
  - `HYMT_MODEL`: đổi mô hình mặc định (mặc định: `tencent/Hunyuan-MT-7B-fp8`).
23
- - `HF_TOKEN`: token truy cập Hugging Face (khuyên dùng để tránh rate-limit ẩn danh).
24
 
25
  ## Ghi chú kỹ thuật
26
- - Ứng dụng gọi **Serverless Inference API** qua `huggingface_hub.InferenceClient.text_generation(...)` nên **không cần** tải checkpoint nặng về máy.
27
- - Nếu bạn muốn **tự tải model** và suy luận nội bộ:
28
- - Cần GPU; trên CPU free sẽ không đủ bộ nhớ/tốc độ.
29
- - Tham khảo phần “Use with transformers” trong model card.
30
-
31
- ## Nguồn tham khảo
32
- - Model card Hunyuan-MT-7B-fp8 trên Hugging Face. 0
33
- - Bộ sưu tập Hunyuan-MT (các biến thể 7B, fp8, Chimera) trên Hugging Face. 1
34
- - Repo GitHub chính thức Hunyuan-MT (hướng dẫn & prompt). 2
 
1
+ ---
2
+ title: Hunyuan-MT Translation (Serverless)
3
+ emoji: 🌐
4
+ colorFrom: yellow
5
+ colorTo: blue
6
+ sdk: gradio
7
+ sdk_version: "4.44.0"
8
+ app_file: app.py
9
+ pinned: false
10
+ ---
11
+
12
+ Check out the configuration reference at https://huggingface.co/docs/hub/spaces-config-reference
13
+
14
  # Hunyuan-MT Translation (Hugging Face Space - Free CPU)
15
 
16
+ Demo dịch đa ngôn ngữ dùng mô hình **Tencent Hunyuan-MT** thông qua **Hugging Face Serverless Inference API**, chạy được trên **Space CPU (free)** — không cần GPU.
17
 
18
  ## Tính năng
19
  - Chọn mô hình:
20
  - `tencent/Hunyuan-MT-7B-fp8` (khuyến nghị cho serverless)
21
  - `tencent/Hunyuan-MT-7B`
22
+ - Hỗ trợ 30+ ngôn ngữ (bao gồm `zh`, `zh-Hant`, `yue`, `en`, `vi`, ).
23
+ - Prompt theo gợi ý từ model card:
24
+ - **ZH XX**: `把下面的文本翻译成<target_language>,不要额外解释。`
25
+ - **XX XX**: `Translate the following segment into <target_language>, without additional explanation.`
26
 
27
  ## Triển khai
28
+ 1. Tạo Space mới (Python) và chọn **Hardware: CPU Basic (Free)**.
29
+ 2. Commit 3 file: `app.py`, `requirements.txt`, `README.md`.
30
+ 3. (Khuyến nghị) Vào **Settings → Repository secrets** thêm:
31
+ - `HF_TOKEN`: token Hugging Face để tăng hạn mức Inference API.
32
+ 4. **Restart** Space sau khi commit.
33
 
34
  ## Biến môi trường (tùy chọn)
35
  - `HYMT_MODEL`: đổi mô hình mặc định (mặc định: `tencent/Hunyuan-MT-7B-fp8`).
36
+ - `HF_TOKEN`: token truy cập Hugging Face (giúp tránh rate-limit ẩn danh).
37
 
38
  ## Ghi chú kỹ thuật
39
+ - Ứng dụng gọi **Serverless Inference API** qua `huggingface_hub.InferenceClient.text_generation(...)` nên **không cần** tải checkpoint nặng.
40
+ - Nếu muốn tự tải model và suy luận nội bộ (TGI/vLLM), cần GPU; CPU free không phù hợp.
41
+
42
+ ## Giấy phép & trách nhiệm
43
+ - Tuân thủ giấy phép của mô hình và chính sách sử dụng của Hugging Face.