🎯 Scop: #
Acest ghid oferă pașii esențiali pentru a pregăti serverul dumneavoastră GPU (cu Ubuntu 24.04 preinstalat) pentru dezvoltarea și rularea aplicațiilor de Inteligență Artificială (AI) folosind Python și framework-urile populare (TensorFlow, PyTorch).
1. Conectarea la Serverul Dumneavoastră prin SSH #
Accesul la serverele GPU KarmaHost se face prin SSH (Secure Shell). Veți avea nevoie de un client SSH (precum PuTTY pentru Windows sau Terminal pentru macOS/Linux).
-
Găsiți datele de acces: Numele de utilizator (de obicei
root) și adresa IP a serverului (furnizate în email-ul de activare). -
Deschideți clientul SSH și introduceți comanda:
Bash
ssh root@adresa_ip_a_serverului_tau -
Când vi se cere, introduceți parola furnizată.
-
Dacă este prima conectare, acceptați cheia de securitate (tastați
yes).
2. Actualizarea Sistemului de Operare #
Înainte de a instala software suplimentar, este vital să vă asigurați că sistemul de operare Ubuntu este complet actualizat:
Bash
sudo apt update
sudo apt upgrade -y
3. Instalarea NVIDIA Drivers și CUDA Toolkit #
Pentru ca serverul să utilizeze puterea plăcii grafice (vGPU NVIDIA H200), trebuie instalate driverele corecte și CUDA Toolkit (platforma de calcul paralel a NVIDIA).
-
Instalarea Driverelor NVIDIA: Utilizați managerul de pachete Ubuntu pentru a instala driverele recomandate (sau cele specifice).
Bash
sudo apt install nvidia-driver-550 -y # Nota: Versiunea driverului (550) poate varia -
Instalarea CUDA Toolkit:
Bash
sudo apt install nvidia-cuda-toolkit -y -
Verificarea Instalării: Rulați următoarea comandă pentru a vedea detaliile plăcii GPU (Model, VRAM, Stare):
Bash
nvidia-smiDacă vedeți informațiile despre GPU, instalarea a reușit.
4. Crearea unui Mediu Virtual Python (Virtualenv) #
Este o bună practică să izolați dependențele proiectelor AI folosind un mediu virtual.
-
Instalarea Python și Pip:
Bash
sudo apt install python3 python3-pip -y -
Instalarea modulului Virtualenv:
Bash
pip install virtualenv -
Crearea și Activarea Mediului Virtual:
Bash
# Creeaza directorul pentru proiecte mkdir ~/ai_projects cd ~/ai_projects # Creeaza mediul virtual numit "ai_env" virtualenv ai_env # Activeaza mediul virtual source ai_env/bin/activateNotă: Odată activat, veți vedea
(ai_env)în fața promptului din Terminal.
5. Instalarea Framework-urilor AI (TensorFlow și PyTorch) #
Acum puteți instala framework-urile de Deep Learning direct în mediul virtual activat.
A. TensorFlow (cu suport GPU) #
Bash
pip install tensorflow
B. PyTorch (cu suport GPU) #
Bash
# Asigurati-va ca instalati versiunea PyTorch compatibila cu versiunea CUDA instalata.
# Puteti gasi comanda exacta pe site-ul oficial PyTorch. Exemplu:
pip install torch torchvision torchaudio
6. Testarea Suportului GPU #
Pentru a verifica dacă framework-ul instalat poate accesa vGPU-ul H200, rulați o sesiune Python în Terminal:
Bash
python
Apoi, introduceți următoarele comenzi în sesiunea Python:
Pentru TensorFlow #
Python
import tensorflow as tf
print("Dispozitive GPU disponibile:", tf.config.list_physical_devices('GPU'))
Rezultatul ar trebui să afișeze dispozitivul GPU.
Pentru PyTorch #
Python
import torch
print("Suport CUDA (GPU) activat:", torch.cuda.is_available())
print("Numar de dispozitive GPU:", torch.cuda.device_count())
Rezultatul ar trebui să fie True și să indice numărul de dispozitive.
Felicitări! Serverul dumneavoastră GPU de la KarmaHost este acum gata să ruleze sarcini complexe de Machine Learning și Deep Learning.
💡 Pași Următori Recomandați: #
-
Securitate: Setați un firewall de bază (ex:
ufw) și schimbați portul SSH implicit. -
Dezvoltare: Instalați și configurați Jupyter Notebooks pentru o interfață de lucru web mai prietenoasă.