#!/usr/bin/env python3 """ Этот скрипт проверяет наличие GPU и совместимость с PyTorch. Запустите его, чтобы проверить конфигурацию вашей системы: python check_gpu.py """ import platform import os import sys def check_system(): print(f"Операционная система: {platform.system()} {platform.release()}") print(f"Python версия: {sys.version}") try: import torch print(f"\nПроверка PyTorch:") print(f"Версия PyTorch: {torch.__version__}") # Проверка CUDA if hasattr(torch.version, "cuda"): print(f"CUDA версия: {torch.version.cuda}") else: print("CUDA версия: не найдена") # Проверка доступности CUDA print(f"CUDA доступен: {torch.cuda.is_available()}") if torch.cuda.is_available(): print(f"Обнаружено GPU: {torch.cuda.get_device_name(0)}") print(f"Количество GPU: {torch.cuda.device_count()}") for i in range(torch.cuda.device_count()): print(f" GPU {i}: {torch.cuda.get_device_name(i)}") # Проверка MPS (Apple Silicon) if hasattr(torch.backends, "mps"): print(f"\nApple MPS доступен: {torch.backends.mps.is_available()}") if torch.backends.mps.is_available(): print("Обнаружен Apple Silicon GPU (M1/M2/M3)") except ImportError: print("PyTorch не установлен.") print("Установите PyTorch командой: pip install torch") except Exception as e: print(f"Ошибка при проверке PyTorch: {str(e)}") if __name__ == "__main__": print("===== Диагностика GPU для Tilmash =====") check_system() print("\n===== Готовность системы =====") try: import torch if torch.cuda.is_available(): print("✅ GPU CUDA обнаружен и готов к использованию") elif hasattr(torch.backends, "mps") and torch.backends.mps.is_available(): print("✅ Apple Silicon GPU (MPS) обнаружен и готов к использованию") else: print("⚠️ GPU не обнаружен. Tilmash будет работать на CPU (медленнее)") except ImportError: print("❌ PyTorch не установлен. Установите его командой: pip install torch") print("\nСовет: Если у вас есть GPU, но он не обнаружен, проверьте:\n" "1. Драйверы NVIDIA (для CUDA)\n" "2. Правильную версию PyTorch для вашей системы\n" "3. Переустановите PyTorch с поддержкой CUDA: pip install torch --upgrade")