Spaces:
Runtime error
Runtime error
Update README.md
Browse files
README.md
CHANGED
|
@@ -1,34 +1,43 @@
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
| 1 |
# Hunyuan-MT Translation (Hugging Face Space - Free CPU)
|
| 2 |
|
| 3 |
-
|
| 4 |
|
| 5 |
## Tính năng
|
| 6 |
- Chọn mô hình:
|
| 7 |
- `tencent/Hunyuan-MT-7B-fp8` (khuyến nghị cho serverless)
|
| 8 |
- `tencent/Hunyuan-MT-7B`
|
| 9 |
-
- Hỗ trợ 30+ ngôn ngữ (bao gồm `zh`, `zh-Hant`, `yue`, `en`, `vi`,
|
| 10 |
-
- Prompt
|
| 11 |
-
- **ZH
|
| 12 |
-
- **XX
|
| 13 |
|
| 14 |
## Triển khai
|
| 15 |
-
1. Tạo Space mới (Python)
|
| 16 |
-
2.
|
| 17 |
-
3. (
|
| 18 |
-
- `HF_TOKEN`: token
|
| 19 |
-
4.
|
| 20 |
|
| 21 |
## Biến môi trường (tùy chọn)
|
| 22 |
- `HYMT_MODEL`: đổi mô hình mặc định (mặc định: `tencent/Hunyuan-MT-7B-fp8`).
|
| 23 |
-
- `HF_TOKEN`: token truy cập Hugging Face (
|
| 24 |
|
| 25 |
## Ghi chú kỹ thuật
|
| 26 |
-
- Ứng dụng gọi **Serverless Inference API** qua `huggingface_hub.InferenceClient.text_generation(...)` nên **không cần** tải checkpoint nặng
|
| 27 |
-
- Nếu
|
| 28 |
-
|
| 29 |
-
|
| 30 |
-
|
| 31 |
-
## Nguồn tham khảo
|
| 32 |
-
- Model card Hunyuan-MT-7B-fp8 trên Hugging Face. 0
|
| 33 |
-
- Bộ sưu tập Hunyuan-MT (các biến thể 7B, fp8, Chimera) trên Hugging Face. 1
|
| 34 |
-
- Repo GitHub chính thức Hunyuan-MT (hướng dẫn & prompt). 2
|
|
|
|
| 1 |
+
---
|
| 2 |
+
title: Hunyuan-MT Translation (Serverless)
|
| 3 |
+
emoji: 🌐
|
| 4 |
+
colorFrom: yellow
|
| 5 |
+
colorTo: blue
|
| 6 |
+
sdk: gradio
|
| 7 |
+
sdk_version: "4.44.0"
|
| 8 |
+
app_file: app.py
|
| 9 |
+
pinned: false
|
| 10 |
+
---
|
| 11 |
+
|
| 12 |
+
Check out the configuration reference at https://huggingface.co/docs/hub/spaces-config-reference
|
| 13 |
+
|
| 14 |
# Hunyuan-MT Translation (Hugging Face Space - Free CPU)
|
| 15 |
|
| 16 |
+
Demo dịch đa ngôn ngữ dùng mô hình **Tencent Hunyuan-MT** thông qua **Hugging Face Serverless Inference API**, chạy được trên **Space CPU (free)** — không cần GPU.
|
| 17 |
|
| 18 |
## Tính năng
|
| 19 |
- Chọn mô hình:
|
| 20 |
- `tencent/Hunyuan-MT-7B-fp8` (khuyến nghị cho serverless)
|
| 21 |
- `tencent/Hunyuan-MT-7B`
|
| 22 |
+
- Hỗ trợ 30+ ngôn ngữ (bao gồm `zh`, `zh-Hant`, `yue`, `en`, `vi`, …).
|
| 23 |
+
- Prompt theo gợi ý từ model card:
|
| 24 |
+
- **ZH ⇄ XX**: `把下面的文本翻译成<target_language>,不要额外解释。`
|
| 25 |
+
- **XX ⇄ XX**: `Translate the following segment into <target_language>, without additional explanation.`
|
| 26 |
|
| 27 |
## Triển khai
|
| 28 |
+
1. Tạo Space mới (Python) và chọn **Hardware: CPU Basic (Free)**.
|
| 29 |
+
2. Commit 3 file: `app.py`, `requirements.txt`, `README.md`.
|
| 30 |
+
3. (Khuyến nghị) Vào **Settings → Repository secrets** thêm:
|
| 31 |
+
- `HF_TOKEN`: token Hugging Face để tăng hạn mức Inference API.
|
| 32 |
+
4. **Restart** Space sau khi commit.
|
| 33 |
|
| 34 |
## Biến môi trường (tùy chọn)
|
| 35 |
- `HYMT_MODEL`: đổi mô hình mặc định (mặc định: `tencent/Hunyuan-MT-7B-fp8`).
|
| 36 |
+
- `HF_TOKEN`: token truy cập Hugging Face (giúp tránh rate-limit ẩn danh).
|
| 37 |
|
| 38 |
## Ghi chú kỹ thuật
|
| 39 |
+
- Ứng dụng gọi **Serverless Inference API** qua `huggingface_hub.InferenceClient.text_generation(...)` nên **không cần** tải checkpoint nặng.
|
| 40 |
+
- Nếu muốn tự tải model và suy luận nội bộ (TGI/vLLM), cần GPU; CPU free không phù hợp.
|
| 41 |
+
|
| 42 |
+
## Giấy phép & trách nhiệm
|
| 43 |
+
- Tuân thủ giấy phép của mô hình và chính sách sử dụng của Hugging Face.
|
|
|
|
|
|
|
|
|
|
|
|