Salta al contenuto principale

Chi sono

Dagli esordi dei primi circuiti elettronici all’orchestrazione di Kubernetes, la mia costante è sempre stata una sola: non accettare mai che un sistema funzioni senza averne compreso a fondo la logica interna. Che si tratti di hardware o di riga di comando, il mio obiettivo è sempre stato quello di padroneggiare il sistema, comprenderne i meccanismi profondi e, dove possibile, spostarne i limiti un po’ più in là.

Oggi molti parlano di Intelligenza Artificiale e Cloud come di novità assolute, ma chi ha vissuto l’evoluzione dei bit “sotto il cofano”, sta assistendo a una straordinaria convergenza. In questo post voglio raccontarvi come sono passato dal fischio del modem 56k all’orchestrazione di un cluster Kubernetes nel mio salotto.

L’IA prima della potenza: L’era delle SVM (1999-2001)
#

Alla fine degli anni ‘90, l’Intelligenza Artificiale era una sfida contro i limiti della fisica. La potenza di calcolo di allora non permetteva alle reti neurali classiche di convergere in tempi ragionevoli.

Nella mia tesi di laurea in Fisica, ho affrontato questo limite utilizzando le Support Vector Machines (SVM) per la diagnosi precoce di tumori radiografici. Gli algoritmi erano scritti in C e C++ per la massima performance, con un’interfaccia in Java. Era un’epoca in cui l’IA si costruiva con la matematica pura.

Slackware, RedHat e il fischio del modem
#

In quegli stessi anni, scoprivo Linux. Non c’erano tutorial su YouTube, c’erano i manuali e i newsgroup. Ho installato le prime versioni di RedHat e Slackware, configurando i kernel mentre il mondo fuori era connesso tramite il doppino telefonico e il fischio del modem 56k. Lì ho imparato come “pensa” un sistema operativo.

Dal Semantic Web alla Consulenza Enterprise
#

Dopo un Master in IT focalizzato sullo stack di internet e sul Semantic Web (l’idea di rendere i dati comprensibili alle macchine), sono approdato a Milano. Sono stati gli anni della consulenza “pesante” in Java, dove la modernità dei JavaBeans doveva dialogare con sistemi COBOL e database SQL critici. Una palestra incredibile per capire la gestione della complessità su larga scala.

La dualità: Insegnamento e Web Development
#

Il mio percorso è poi virato verso l’insegnamento di Matematica e Fisica. Ma non ho mai smesso di essere un developer. Durante l’abilitazione, ho lavorato come programmatore JavaScript e PHP, rimanendo connesso col mondo del web dinamico.

In questi anni ho capito che imparare un nuovo linguaggio (Python, Haskell, Rust, XML) è un processo velocissimo se ne comprendi i paradigmi. Una volta compresa la logica (funzionale, imperativa, a oggetti), la differenza è quasi solo sintassi.

La Scintilla: L’IA come compagno di studi
#

Il cerchio ha iniziato a chiudersi con l’avvento dei nuovi LLM. Inizialmente ho usato l’IA per scopi didattici: creare materiali personalizzati per i miei studenti e, soprattutto, insegnare loro come usare l’IA per migliorare l’apprendimento e non per “imbrogliare”.

Ma l’IA ha risvegliato in me la voglia di sperimentare. Avevo bisogno di un sistema Linux funzionante e, dopo 15 years, ho installato Linux Mint. Sono rimasto folgorato: il mondo Linux era diventato semplice, elegante, bellissimo. Grazie all’IA, non ho dovuto rileggere tonnellate di documentazione per driver e servizi; in due giorni avevo una workstation perfetta.

L’Escalation: Dalla VM al Mini PC
#

A quel punto, la curiosità è diventata inarrestabile. Volevo servizi attivi 24/7. Ho affittato una VM, usandola come palestra con l’IA come “Senior Partner” sempre al mio fianco.

Ma i servizi crescevano: Docker, database SQL e NoSQL, database vettoriali per LLM, n8n per l’automazione, Tailscale per la rete… Il server in affitto non bastava più. Invece di aumentare il canone mensile, ho fatto il salto: ho comprato un Mini PC con abbastanza ram, un dominio e ho iniziato a costruire il mio homelab.

Oltre la paura: Proxmox e Kubernetes
#

Con l’IA a supportarmi, la “paura della complessità” è svanita. Perché leggere 300 pagine di manuale quando l’IA può estrarre le 10 righe esatte che mi servono in quel momento?

Così ho installato Proxmox. Poi, mi sono detto: “Perché fermarsi?”. Ho affrontato la sfida definitiva: Kubernetes. Forse è esagerato per un laboratorio casalingo, ma l’argomento è troppo affascinante per essere ignorato. Oggi il mio Home Lab gira su un cluster Kubernetes con Linux Talos su Proxmox.

Conclusione: Un nuovo mondo da esplorare
#

Chi sono oggi? Un fisico che ha visto nascere l’IA e che oggi la usa per abbattere le barriere del tempo. Non so dove mi porterà questa strada fatta di High Availability, sicurezza e scalabilità, ma so che davanti a me c’è un mondo nuovo da esplorare.

Non vedo l’ora di scoprire cosa c’è dietro il prossimo nodo.

Ti è piaciuto questo viaggio? Seguimi su blog.tazlab.net per scoprire come sto configurando il mio cluster e quali sono i prossimi esperimenti al confine tra fisica e cloud.


Comments