View Categories

Set-up Inițial: Pregătirea Serverului AI pentru TensorFlow și PyTorch

⏱️ Timp estimat de citire: 3 min read

🎯 Scop: #

Acest ghid oferă pașii esențiali pentru a pregăti serverul dumneavoastră GPU (cu Ubuntu 24.04 preinstalat) pentru dezvoltarea și rularea aplicațiilor de Inteligență Artificială (AI) folosind Python și framework-urile populare (TensorFlow, PyTorch).


1. Conectarea la Serverul Dumneavoastră prin SSH #

Accesul la serverele GPU KarmaHost se face prin SSH (Secure Shell). Veți avea nevoie de un client SSH (precum PuTTY pentru Windows sau Terminal pentru macOS/Linux).

  1. Găsiți datele de acces: Numele de utilizator (de obicei root) și adresa IP a serverului (furnizate în email-ul de activare).

  2. Deschideți clientul SSH și introduceți comanda:

    Bash

    ssh root@adresa_ip_a_serverului_tau
    
  3. Când vi se cere, introduceți parola furnizată.

  4. Dacă este prima conectare, acceptați cheia de securitate (tastați yes).

2. Actualizarea Sistemului de Operare #

Înainte de a instala software suplimentar, este vital să vă asigurați că sistemul de operare Ubuntu este complet actualizat:

Bash

sudo apt update
sudo apt upgrade -y

3. Instalarea NVIDIA Drivers și CUDA Toolkit #

Pentru ca serverul să utilizeze puterea plăcii grafice (vGPU NVIDIA H200), trebuie instalate driverele corecte și CUDA Toolkit (platforma de calcul paralel a NVIDIA).

  1. Instalarea Driverelor NVIDIA: Utilizați managerul de pachete Ubuntu pentru a instala driverele recomandate (sau cele specifice).

    Bash

    sudo apt install nvidia-driver-550 -y
    # Nota: Versiunea driverului (550) poate varia
    
  2. Instalarea CUDA Toolkit:

    Bash

    sudo apt install nvidia-cuda-toolkit -y
    
  3. Verificarea Instalării: Rulați următoarea comandă pentru a vedea detaliile plăcii GPU (Model, VRAM, Stare):

    Bash

    nvidia-smi
    

    Dacă vedeți informațiile despre GPU, instalarea a reușit.

4. Crearea unui Mediu Virtual Python (Virtualenv) #

Este o bună practică să izolați dependențele proiectelor AI folosind un mediu virtual.

  1. Instalarea Python și Pip:

    Bash

    sudo apt install python3 python3-pip -y
    
  2. Instalarea modulului Virtualenv:

    Bash

    pip install virtualenv
    
  3. Crearea și Activarea Mediului Virtual:

    Bash

    # Creeaza directorul pentru proiecte
    mkdir ~/ai_projects
    cd ~/ai_projects
    
    # Creeaza mediul virtual numit "ai_env"
    virtualenv ai_env
    
    # Activeaza mediul virtual
    source ai_env/bin/activate
    

    Notă: Odată activat, veți vedea (ai_env) în fața promptului din Terminal.

5. Instalarea Framework-urilor AI (TensorFlow și PyTorch) #

Acum puteți instala framework-urile de Deep Learning direct în mediul virtual activat.

A. TensorFlow (cu suport GPU) #

Bash

pip install tensorflow

B. PyTorch (cu suport GPU) #

Bash

# Asigurati-va ca instalati versiunea PyTorch compatibila cu versiunea CUDA instalata.
# Puteti gasi comanda exacta pe site-ul oficial PyTorch. Exemplu:
pip install torch torchvision torchaudio

6. Testarea Suportului GPU #

Pentru a verifica dacă framework-ul instalat poate accesa vGPU-ul H200, rulați o sesiune Python în Terminal:

Bash

python

Apoi, introduceți următoarele comenzi în sesiunea Python:

Pentru TensorFlow #

Python

import tensorflow as tf
print("Dispozitive GPU disponibile:", tf.config.list_physical_devices('GPU'))

Rezultatul ar trebui să afișeze dispozitivul GPU.

Pentru PyTorch #

Python

import torch
print("Suport CUDA (GPU) activat:", torch.cuda.is_available())
print("Numar de dispozitive GPU:", torch.cuda.device_count())

Rezultatul ar trebui să fie True și să indice numărul de dispozitive.

Felicitări! Serverul dumneavoastră GPU de la KarmaHost este acum gata să ruleze sarcini complexe de Machine Learning și Deep Learning.


💡 Pași Următori Recomandați: #

  • Securitate: Setați un firewall de bază (ex: ufw) și schimbați portul SSH implicit.

  • Dezvoltare: Instalați și configurați Jupyter Notebooks pentru o interfață de lucru web mai prietenoasă.