No video

Intelligenza artificiale, il punto di vista del practitioner

Cosa c'e' (matematicamente o teoricamente parlando) dietro alla capacita' di alcune "macchine" d'imitare alcune funzioni del cervello umano?
Michele Boldrin chiede lumi a Fabio Stefanini / fabio-stefanini-12b3524a
Sostieni Liberi Oltre le Illusioni diventando socio: vai su www.liberioltreleillusioni.it nella sezione "ASSOCIATI" e diventa socio. Ti aspettiamo
----------------------------
👉 Iscrivi sul ns. sito Ufficiale: www.liberioltr...
👉 I canali di Liberi Oltre:
YT - News, il canale storico: / liberioltre
YT - Agorà, il canale delle scienze sociali: / @liberioltreagora
YT - STEM, il canale delle scienze / @liberioltrestem
👉 Puoi anche seguirci sui ns. canali social:
TWITCH / liberioltre
FACEBOOK / liberioltrel. .
TWITTER / liberioltre
TELEGRAM t.me/liberioltre
INSTAGRAM / liberioltre
SOUNDCLOUD / liberioltre
SPOTIFY bit.ly/SpotifyLO

Пікірлер: 33

  • @johntravolta9917
    @johntravolta9917 Жыл бұрын

    Molto interessante il discorso finale che Fabio ha sintetizzato con "siamo piu topi che scimmie". Se l'intelligenza artificiale in realtà non è per niente intelligente ma cosi sembra a chi non ne conosce le basi tecniche, significa che noi umani possiamo essere ingannati "facilmente" da un uso sapiente del linguaggio che potrebbe essere scambiato per intelligenza e conoscenza

  • @thugskem7607
    @thugskem7607 Жыл бұрын

    Bellissima live, super interessante sarebbe fantastico rivedere Fabio!

  • @alessandrodevigili1413
    @alessandrodevigili1413 Жыл бұрын

    Gran bel video. Del cervello sappiamo davvero tantissimo... E ancora non sappiamo un casso.

  • @Marco-eu5bd
    @Marco-eu5bd Жыл бұрын

    Davvero molto interessante. Grazie ad entrambi.

  • @stefanopisoni4155
    @stefanopisoni4155 Жыл бұрын

    Bellissima live, spero si innesti una serie di video con Fabio. Chiarissimo e diretto nell'esposizione, compimenti!

  • @elenazappala9374
    @elenazappala9374 Жыл бұрын

    Complimenti Fabio, molto interessante!

  • @RiccardoPazzi
    @RiccardoPazzi Жыл бұрын

    Sarebbe interessante entrare nel dettaglio di qualche modello "moderno" del funzionamento di un neurone, per confrontarlo con modelli elettronici come memristori, artificial neurons, etc. Grazie per il video, molto high level ma super interessante.

  • @domvlad
    @domvlad Жыл бұрын

    Bellissimo video! Bravi e grazie

  • @amedeobiolatti216
    @amedeobiolatti216 Жыл бұрын

    Video interessante. Nella seconda parte siete andati in una direzione su cui concordo, ma sono più radicale: l'influenza delle neuroscienze sull'AI moderna si limita all'analogia, similmente all'influenza dell'ornitologia sull'aeronautica

  • @gabrielelami5002
    @gabrielelami5002 Жыл бұрын

    Bellissimo video, grazie!

  • @vincenzodeconcilio7610
    @vincenzodeconcilio7610 Жыл бұрын

    Bella live - purtroppo guardata in ritardo, "conservata" nei bookmarks per quando ho avuto un momento libero, e quindi immagino nessuno legga piu' i commenti: avrei voluto chiedere all'ospite di suggerire una mini-bibliografia!

  • @rakkimm
    @rakkimm Жыл бұрын

    Ho trovato la session molto interessante, lavorando nel settore lato ICT, spero ci saranno altre sessioni, è un topic estremamente interessante, mi piacerebbe anche che parlaste degli impatti sul Business. Grazie!

  • @Udics
    @Udics Жыл бұрын

    Peccato che Fabio non possa entrare in dettaglio. Comunque molto interessante. Bravi🤗🤗

  • @robertorosati53
    @robertorosati53 Жыл бұрын

    Molto interessante grazie

  • @dfolegna
    @dfolegna Жыл бұрын

    ottima live, due piccoli contributi alla domanda se AI sara' mai intelligenza: fino a che non riesci a simulare lo stesso spazio neurale umano, non saprai se l'intelligenza si ottiene solo con interazioni a quelle scale. io penso di si. secondo punto, se si modella il neurone con un transistor, una funzione software o qualsiasi altra cosa ma si ottiene lo stesso risultato, secondo me e' intelligenza. Spaventa vederla cosi ma sara' come dire f1(x) = f2(x)

  • @lucamariot5689

    @lucamariot5689

    Жыл бұрын

    È una questione più filosofica che scientifica. C'è la corrente che la pensa all'esatto opposto, e cioè che anche se fossimo in grado di simulare il cervello umano fino all'ultimo neurone usando un altro sostrato tecnologico (fisica dei semiconduttori o altro), non riusciremmo comunque a replicare un'intelligenza o un'autocoscienza "emergente". Tra i vari che la pensano così c'è per esempio Federico Faggin, che ha cambiato idea (prima la pensava come te) proprio studiando le reti neurali per svariati anni. Tra l'altro, non è affatto detto che si riesca ad arrivare al livello di scala necessario per poter simulare l'intero sistema nervoso. Si potrebbe benissimo incappare in limiti fisici non sormontabili.

  • @dfolegna

    @dfolegna

    Жыл бұрын

    @@lucamariot5689 Ho letto abbastanza sull'argomento: i contrari, pero', non dicono perche' non sarebbe la stessa cosa. Mi sembra una corrente di tipo metafisico che sostiene che le "cose" stiano da qualche parte, ma non dicono mai dove. Ma dicono che invece tu che usi la prova, non vai bene, sempre senza dire il perche'. Pensavo tempo fa a come si possano indurre stati mentali con droghe: se voglio alterare un meccanismo, temporaneamente, agisco in maniera artificiale e porto un certo stato neurale verso una configurazione di "euforia", "amore", "beatitudine". Ma questo mica perche' hai di fronte il soggetto da amare. Perche' invece ( alla giusta scala di modello, se ci potra' arrivare ) non posso arrivare a portare un modello ad attivarsi per interagire in modo "interlegato", ovvero intelligente? Certo che questo spazzerebbe via molti filoni filosofici, religiosi e anche forse scientifici, ma non vedo perche' non dovremmo accettarlo.

  • @lucamariot5689

    @lucamariot5689

    Жыл бұрын

    @@dfolegna guarda che la posizione di chi è a "favore" è simmetricamente metafisica e non falsificabile, eh. Non abbiamo nemmeno una definizione condivisa di cosa siano l'intelligenza e la coscienza. Metti anche che si arrivi ad ottenere una simulazione in silico del cervello. E poi? Come si fa a decidere se quella roba è equivalente a un'intelligenza umana? Mentre è vero che qualcuno contro questo argomento spesso non spiega da dove arrivino la coscienza e l'intelligenza (Faggin, per fare lo stesso esempio, ha un'idea ben precisa in merito invece), è vero allo stesso modo che chi è a favore da per scontata una premessa, e cioè che i processi di pensiero siano riducibili a computazioni. E questa è una premessa tanto metafisica quanto il panpsichismo o altro all'opposto. Allo stato attuale delle nostre conoscenze tutta questa faccenda non è scienza, è metafisica.

  • @angeloceccato
    @angeloceccato Жыл бұрын

    Bella. Quindi è vero che una buona parte della ai è praticamente tagging, tunare parametri, fixare dati e brute force 🤔

  • @giovannitabanelli
    @giovannitabanelli Жыл бұрын

    Fabio lo ha accennato applicato alla didattica: quali sono i tool, i software e i tutorial per iniziare a maneggiare le reti neurali partendo da zero? Sarebbe interessante approfondire l'argomento per aiutare il profano a entrare in questo mondo!

  • @orfeopezzotti
    @orfeopezzotti Жыл бұрын

    Mio commento tattico

  • @meMetallo
    @meMetallo Жыл бұрын

    Sulla questione di cos'è l'intelligenza l'espediente filosofico è: non sappiamo cos'è l'intelligenza ma sappiamo dire se un comportamento è più o meno intelligente, quindi piuttosto che dire che il bot è intelligente diciamo che si comporta in modo intelligente. Qui ci sarebbe una precisazione da fare: la neural net di per sé non è intelligenza artificiale, è un meccanismo di apprendimento automatico. Un agente che fa cose attraverso una neural net può o meno essere intelligenza artificiale.

  • @lucamariot5689

    @lucamariot5689

    Жыл бұрын

    Occhio che "apprendimento automatico" (traduzione abituale di "machine learning") tradizionalmente *è* parte di quelle tecniche che collettivamente vengono chiamate "intelligenza artificiale". Le reti neurali di per sé non sono nemmeno un meccanismo di apprendimento automatico, ma un modello di calcolo, come può essere la macchina di Turing, gli automi cellulari, i circuiti booleani, ecc. Il modo in cui si decidono i pesi della rete e gli altri suoi parametri (architettura, ecc), quello è propriamente apprendimento automatico.

  • @meMetallo

    @meMetallo

    Жыл бұрын

    @@lucamariot5689 in realtà non è proprio così. Machine Learning non è AI e come dicevo, il semplice ML senza un agente che poi lo usa in un ambiente dinamico non è considerabile AI. Per quanto rigurarda le neural nets, che siano un modello di calcolo è una congettura ancora tutta da dimostrare, fino a una prova certa la consideriamo una tecnica di ml subsimbolica al pari di altre come gli algoritmi genetici. Volevo evitare di andare troppo nello specifico visto che il pubblico di questo video è in teoria digiuno di questi argomenti

  • @lucamariot5689

    @lucamariot5689

    Жыл бұрын

    @@meMetallo ma proprio no! Guarda che "AI" non è solo prerogativa della visione agent-based à la Russell & Norvig. Il mondo è molto più vario di così, e la maggior parte dei ricercatori considerano le reti neurali parte dell'AI. Sui modelli di calcolo, mi sa che o non ci intendiamo sulla terminologia, oppure mi dai l'impressione che non sai di cosa stai parlando. Un modello di calcolo è semplicemente la definizione di come calcolare l'output di una funzione. Cosa c'è da dimostrare? En passant, gli algoritmi genetici sono anch'essi sia un modello di calcolo, sia una tecnica di AI.

  • @meMetallo

    @meMetallo

    Жыл бұрын

    @@lucamariot5689 effettivamente ho commentato un po' di fretta dando per scontato cose. Chi parla di reti neurali come modello di calcolo, il più delle volte lo fa sottointendendo la congettura secondo cui sarebbero un modello di calcolo più potente delle macchine di Turing e per questo dico che è tutto da dimostrare. Lavori su macchine hardware ispirate a questo modelli neurali e non alla macchina di Von Neumann servono anche a provare a dimostrare questa tesi. Il punto, però è che parlare di modello di calcolo è eccessivo: di fatto le reti sono algoritmi, che anziché essere espressi in modo procedurale sono espressi sotto forma di topologia e pesi manca completamente la parte che ci permette di dire, questo è un modello di calcolo, al pari della macchina di Turing o il lambda calcolo. Tra l'altro noi con le reti non calcoliamo in senso strettissimo, ma approssimiamo il calcolo, quindi se anche fossero un modello di calcolo, sarebbero un modello con cui non potremmo esprimere calcoli così come facciamo connaltri modelli. Sarebbero anche meno universali perché li utilizziamo per un insieme di task estremamente più limitato rispetto a quelli che risolviamo con formalismi più tradizionali. Riguardo ai modelli di intelligenza artificiale altetnativi a quello ad agenti, il machine learning ha un difetto sostanziale: sono tecniche note da quaranta e più anni che si possono applicare anche altrove, perché siano effettivamente "intelligenti" serve inserirle in applicativi in grado di sfruttarli in modo intelligente, però qui si scade sul filosofico, tornando a quella è poi il mio primo commento.

  • @lucamariot5689

    @lucamariot5689

    Жыл бұрын

    ​@@meMetallo Non so a chi ti riferisci, ma in informatica teorica il fatto che le reti neurali siano equivalenti alle macchine di Turing è una cosa risaputa da tempo. Poi ovviamente ci sono gli sbroccati e i furbi che pensano di aver dimostrato quella roba chiamata "hypercomputation" nelle reti neurali, cioè capacità computazionali superiori a una MdT; salvo poi andare a leggere tra le righe e accorgersi che, per esempio, permettono alla rete di assumere pesi irrazionali (che già sono non computabili), o altre amenità simili. E comunque ti sbagli: le reti neurali possono essere viste come modello di computazione esattamente come le macchine di Turing o il lambda calcolo. Il trucco è lo stesso dei circuiti booleani: non devi considerare l'equivalenza tra una MdT e una singola rete neurale, ma tra una MdT e una famiglia di reti neurali. Questo perché una rete neurale feed-forward*, come un circuito booleano, è "fissa" e può accettare solo input di lunghezza prefissata. Parametrizzando per esempio sulla dimensione dello strato di input, si ottiene una famiglia (infinita) di circuiti, con i quali si può simulare il comportamento di una MdT per input di lunghezza variabile. Sul fatto dell'approssimazione e della relazione con il modello di calcolo stai facendo un botto di confusione. Sorry ma i commenti di youtube non sono il luogo appropriato per darti una spiegazione esauriente. L'unica cosa che riesco a dirti concisamente è che stai mischiando livelli di astrazione e usi delle reti neurali differenti tra loro. Il fatto che le reti in pratica siano usate come approssimatori *non toglie*, a livello teorico, che le puoi usare anche per simulare macchine di turing o altri modelli di computazione come ti ho illustrato sopra. Ma sta roba non c'entra nulla con l'approssimare funzioni continue su un intervallo compatto. Sul vedere qualcosa come AI solo se è usato da un agente in modo intelligente, bon, hai la tua convinzione. Mi chiedo tra l'altro se ti rendi conto della circolarità della definizione, ma vabbè. Come giustamente dici è una faccenda filosofica. *ci sono anche i casi più sofisticati delle reti ricorrenti dove addirittura non serve definire famiglie, dato che possono avere un comportamento ricorsivo.

  • @ferruccioalessandria7242
    @ferruccioalessandria7242 Жыл бұрын

    in fondo in fondo c'è solo Lagrange (ho capito così)

  • @lucamariot5689

    @lucamariot5689

    Жыл бұрын

    Oddio, non proprio Lagrange, però sì esistono i teoremi di approssimazione anche per le funzioni realizzate dalle reti neurali (v. teorema di Cybenko e risultati correlati).

  • @ferruccioalessandria7242

    @ferruccioalessandria7242

    Жыл бұрын

    @@lucamariot5689 ma sì...mi riferivo all'intuizione, al pensiero originale

  • @ferruccioalessandria7242

    @ferruccioalessandria7242

    Жыл бұрын

    @@lucamariot5689 mi sembrava la radice concettuale più vicina. Rileggendo, toglierei il "solo" Forse riformulerei con "si parte dall'idea di Lagrange..." O è proprio cannata l'idea di per sé? Nel caso non mi offendo... 🤗

  • @lucamariot5689

    @lucamariot5689

    Жыл бұрын

    @@ferruccioalessandria7242 Sì, diciamo che, prendendola molto alla larga, si può pensare che quello che fanno le reti neurali è nello stesso "spirito" dell'interpolazione polinomiale. Ci sono però importanti differenze sia a livello tecnico che filosofico. Il teorema di interpolazione di Lagrange dà il polinomio di grado *minimo* che passa per un insieme di punti dati sul piano. Il fatto che si concentri sul polinomio di grado più basso implica che il bias induttivo di questo metodo altro non è che il rasoio di Occam. Le reti neurali, d'altro canto, in generale non si sa nemmeno quale bias induttivo abbiano, perché sono modelli tipicamente "opachi": non si sa perché convergono su una determinata configurazione di pesi sinaptici una volta finito l'apprendimento. Quindi non è detto per esempio che la funzione che approssimano dopo aver appreso da un training set sia necessariamente l'ipotesi più semplice che spiega/predice un determinato fenomeno.