Test YOLOv11l: Cosa abbiamo imparato

Nel percorso di sviluppo del nostro UAV autonomo, il Sapienza Flight Team ha recentemente condotto una serie di test approfonditi utilizzando il modello YOLOv11l su un dataset sintetico progettato per simulare le condizioni operative del drone.

L’obiettivo iniziale era valutare la capacità del modello di rilevare correttamente oggetti rilevanti per la navigazione autonoma — come ostacoli, landmark e marker — in un ambiente controllato, ma realistico. Il dataset è stato generato artificialmente per accelerare il processo di raccolta dati e permettere una maggiore varietà di scenari in tempi rapidi.

Tuttavia, durante l’analisi dei risultati, abbiamo osservato performance inferiori rispetto alle attese: YOLOv11l, pur essendo un modello avanzato, faticava a generalizzare su immagini con caratteristiche visive leggermente diverse da quelle viste in training, anche se generate dallo stesso simulatore.

Questa scoperta ha messo in luce l’importanza cruciale dei modelli visivi utilizzati nel dataset sintetico. Abbiamo compreso che le texture, le illuminazioni e le variazioni delle scene erano troppo uniformi o poco realistiche, portando il modello ad apprendere pattern troppo specifici e poco robusti.

Questa esperienza ci ha spinti a riflettere su due fronti:

  1. Migliorare la qualità e la varietà dei dati sintetici, usando tecniche come il domain randomization e l’uso di motori grafici più avanzati;

  2. Esplorare modelli alternativi a YOLO, potenzialmente più adatti a contesti con scarse generalizzazioni, come gli anchor-free detectors o modelli che integrano meccanismi di attenzione spaziale e temporale.

In sintesi, i test con YOLOv11l ci hanno insegnato che non basta un modello potente se i dati non lo sfidano abbastanza durante l’addestramento. È un equilibrio delicato tra architettura e dati, e stiamo già lavorando per trovare la combinazione giusta per il volo autonomo.