Introduzione al Rilevamento Avanzato delle Fessure: Perché la Fotogrammetria e l’AI sono Cruciali sulle Strutture Storiche
> Le strutture storiche italiane, spesso realizzate con calcestruzzo antico, intonaci a calce e pietre irregolari, richiedono tecniche non invasivi per il monitoraggio della fessurazione, dove anche microfessure millimetriche possono preludere a degrado irreversibile. La fotogrammetria 3D e l’analisi AI offrono precisione e capacità predittive senza alterare l’integrità del bene. La sfida sta nel combinare imaging ad alta risoluzione, correzione geometrica rigorosa e modelli di deep learning addestrati su materiali eterogenei, per rilevare e classificare fessure con affidabilità tecnica e applicabilità operativa.
1. Fondamenti Tecnologici: Fotogrammetria e Rilevamento delle Microfessure
Il rilevamento ottico delle fessure in calcestruzzo armato si basa sull’acquisizione di immagini stereoscopiche ad altissima risoluzione, capaci di cogliere variazioni topografiche dell’ordine dei micrometri. Su strutture storiche, dove la superficie presenta materiali porosi, eterogenei e spesso degradati, questa tecnica richiede un’attenta pianificazione per garantire la copertura completa senza ombre o distorsioni.
Fase 1: Pianificazione della Campagna Fotogrammetrica
- Definire griglie di acquisizione con sovrapposizione frontale (60-80%) e laterale (50-70%) per eliminare artefatti geometrici.
- Determinare la densità dei punti fotogrammatici minimo di 8 punti per metro quadrato, con focus su zone soggette a tensione come giunti, architravi e pilastri.
- Scegliere un sistema ottico con sensore ≥20 MP e obiettivo macro (1:1 rapporto), preferibilmente termicamente stabile per ridurre il rumore termico in ambienti variabili.
- Calibrare la camera in situ con target a scacchi o griglie di riferimento per correggere distorsioni prospettiche (errore tipico < 0.3 px).
- Registrare ogni campionamento con GPS geodetico (precisione ≤ 5 cm) e timestamp UTC, sincronizzando con dati ambientali (umidità, temperatura) per correlazioni temporali.
Un esempio pratico: in una cantina medievale a Siena, l’acquisizione ha richiesto 4 campagne stagionali (primavera, estate, autunno, inverno), con angolazioni variate tra 0° e ±30°, per cogliere deformazioni stagionali invisibili a occhio nudo. La sovrapposizione multipla ha garantito l’assenza di “blind spots” su superfici curve e irregolari.
2. Acquisizione e Pre-elaborazione delle Immagini per l’Intelligenza Artificiale
L’efficacia dell’analisi AI dipende criticamente dalla qualità delle immagini pre-elaborate. Ogni foto deve essere corretta geometricamente e normalizzata per contrasto, eliminando artefatti e accentuando le microfessure senza perdere dettaglio strutturale.
Fase 2: Correzione Geometrica e Miglioramento delle Immagini
- Applicare trasformazioni proiettive con algoritmi di ricostruzione (es. PTGui o OpenCV’s stereo calibration) per allineare le immagini in un unico sistema di coordinate 3D.
- Utilizzare filtri non lineari come il bilateral filter per ridurre rumore preservando i bordi: il parametro chiave è il raggio di smoothing (1.5–2.0 pixel), adattato alla grana del materiale.
- Normalizzare il contrasto con CLAHE (Contrast Limited Adaptive Histogram Equalization), applicato separatamente per zone critiche (giunti, estremità fessure) per evitare sovraesposizione.
- Segmentare semanticamente le aree con metodologie ibride: thresholding globale combinato con rilevamento Canny (1.6–2.0) e Sobel per evidenziare discontinuità.
Un caso studio: in una campanile del Duomo di Firenze, l’applicazione di CLAHE ha rivelato microfessure di 0.15 mm in zone con intonaci a calce degradati, invisibili in immagini non corrette. La segmentazione ha permesso di isolare aree a rischio con precisione del 92% rispetto a ispezioni manuali.
3. Pipeline Avanzata di Analisi AI per Classificazione e Quantificazione
La fase di analisi AI richiede un modello addestrato specificamente sui difetti del calcestruzzo antico e dei materiali misti tipici delle strutture storiche. L’architettura deve bilanciare accuratezza, velocità e capacità di generalizzazione su superfici non standard.
Fase 3: Pipeline di Deep Learning con Fasi Integrate
- Addestrare un modello Mask R-CNN 3D (es. basato su MMDetection3D) su un dataset annotato con microfessure reali, arricchito con immagini da siti storici italiani (es. Ponte di Rialto, anfiteatro di Verona).
- Utilizzare loss pesati: Dice Loss per gestire squilibrio classe (fessure rare vs. superficie pulita) e Focal Loss per ridurre falsi positivi su zone ombreggiate.
- La pipeline include:
- Deteczione: bounding boxes o maschere pixel per fessure, con matrice di errore minimizzata via loss personalizzati.
- Segmentazione: mappe di probabilità per classificare larghezza (≤ 0.2 mm: superficiale, > 0.5 mm: strutturale).
- Classificazione: aggiunta di label contestuali (es. “ritiro”, “fessura da tensione”) per diagnosi avanzata.
- Quantificazione: calcolo longitudinale, densità (fessure/m²), orientamento medio, con mappe di calore integrate.
- Classificazione: aggiunta di label contestuali (es. “ritiro”, “fessura da tensione”) per diagnosi avanzata.
Un’ottimizzazione chiave: data augmentation con distorsioni elastiche realistiche (simulando curvature naturali) e variazioni di luminosità basate su dati climatici locali, aumentando la robustezza del modello del 27% su campioni non visti.
4. Implementazione sul Campo: Pratiche, Errori e Soluzioni Esperte
L’integrazione sul campo richiede attenzione ai dettagli operativi, dalla preparazione del sito alla validazione dei risultati. L’errore più comune è il sottorilevamento in zone ombreggiate o con riflessi, spesso risolto con illuminazione attiva o acquisizione notturna con luci direzionali.
- Preparare il sito con spazzole morbide o aria compressa, evitando abrasivi che danneggiano intonaci antichi.
- Acquisire immagini multispettrali opzionali: imaging termico per rilevare fessure con differenze termiche, imaging UV per evidenziare degradazione chimica.
- Sincronizzare GPS e timestamp con sensori ambientali (umidità, temperatura) per creare dataset spazio-temporali affidabili.
- Verificare in situ i risultati AI confrontandoli con ispezioni visive: un workflow check-list riduce falsi positivi


Leave a Reply