Andrew Ng on The AI Podcast
In questo podcast viene intervistato uno tra i professori più famosi di machine learning di sempre: Andrew Ng. Andrew é professore alla Stanford University, ha lavorato per Google e Baidu (la Google Cinese per intenderci), cofondatore e co-chairman di Coursera e ultimamente ha fondato una nuova azienda chiamata deeplearnig.ai (si mantiene parecchio impegnato :)). Deve gran parte della sua fama alle lezioni di machine learning fruibili, in buona parte, gratuitamente online e che nel tempo hanno inizializzato alla materia molti odierni ricercatori del campo dell’intelligenza artificiale. A tal proposito consiglio vivamente il suo corso su Coursera offerto da deeplearning.ai. Come per altri blog simili, riporto i pensieri e le risposte più interessanti affrontati in questa breve intervista.
- Andrew ultimamente viene spesso preso come esempio dai giornalisti per la sua uscita “l’intelligenza artificiale é la nuova elettricità”. In questa intervista Andrew giustifica questa frase dicendo che come l’elettricità ha cambiato negli ultimi 150 anni le nostre esistenze, così sono destinati a fare gli algoritmi di apprendimento automatico che poco per volta cambieranno tutta la nostra tecnologia e il modo di relazionarci con essa. Infatti, la dimostrazione del successo di una tecnologia si vede da come poco per volta sparisce nell’ombra e diventa la normalità. Infatti, come non usiamo più la parola elettrico o elettronico per tutte le cose che usiamo che sono “animate“ dall’elettricità, poco per volta anche le tecnologie basate sul machine learning entreranno a far parte della quotidianità diventando la normalità ma cambiando letteralmente le nostre vite. Infatti già sistemi come lo spam delle email, controllo frodi carte di credito, suggerimenti testo e tanti altri, sono frutto di algoritmi di machine learning ma non ci prestiamo più attenzione.
- Andrew sostiene che la gente non trascorre lontanamente abbastanza tempo a studiare e imparare cose nuove. Secondo lui, nel mondo in cui viviamo, non possiamo più permetterci il lusso di vivere con le nozioni imparate durante il periodo degli studi. Il continuare ad apprendere è una prerogativa del nostro mondo. Proprio per questo dovremmo impegnarci ogni giorno ad imparare nuovi concetti.
- Proprio perché la maggior parte della gente non passa molto tempo ad imparare, basta poco per apprendere cose nuove e avere più successo nella propria vita lavorativa.
- Per Andrew il segreto è la perseveranza: imparare cose nuove non ha una ricompensa immediata (short-term reward) e proprio per questo molte persone sono scoraggiate dal farlo. Invece bisogna continuare settimana dopo settimana ad aggiungere tasselli e dopo un certo tempo si vedranno le grosse differenze (long term-reward).
- Nel campo del machine learning cosa significa imparare? Andrew risponde portando una definizione semplificata creata da Tom Mitchell (informatico americano): se un “computer” va incontro ad un’esperienza e attraverso questa esperienza migliora ad un certo compito, questo è machine learning.
- Durante NIPS (Neural Information Processing Systems) 2008 ci sono stati i primi segnali che indicavano la possibilità di utilizzare le GPU per velocizzare il training delle reti neurali. Molti ricercatori all’epoca (tra cui Geoffrey Hinton) erano molto scettici per via della difficoltà di programmazione di questi dispositivi. Tuttavia CUDA cambiò poco per volta il proseguimento della storia.
- Gli innovatori sentono i segnali di cambiamento e vanno dietro alle proprie intuizioni anche se la massa va in un’altra direzione.
- Come per Yoshua Bengio, anche Andrew sostiene che da “insider” vede l’evoluzione del campo del machine learning come qualcosa di lineare. Una goccia progressiva ogni anno che ad un certo punto fa traboccare il vaso creando molta influenza mediatica.
- Le aziende che vogliono sfruttare le nuove tecnologie offerte dagli algoritmi di machine learning devono tenere presente i dati in loro possesso e come sfruttarli.