Cos'è l'intelligenza artificiale? Una guida completa all'intelligenza artificiale

Pubblicato: 2024-05-07

Nonostante tutto il recente clamore, l’intelligenza artificiale (AI) non è una novità. In effetti, precede di decenni il World Wide Web. Anche se l'improvvisa e rapida comparsa dell'intelligenza artificiale generativa ha attirato tutta l'attenzione (ed è probabilmente il motivo per cui stai leggendo questo articolo), sicuramente hai incontrato l'intelligenza artificiale direttamente e indirettamente per molti anni.

Questa panoramica di alto livello sull’intelligenza artificiale illustrerà i vari modi in cui può funzionare, cosa può e non può fare e le sue implicazioni per il presente e il futuro delle imprese e della società. Sottolineeremo anche come tutto ciò si collega a Grammarly: fa parte del modo in cui aiutiamo le persone a scrivere da oltre un decennio.

Sommario

  • L'intelligenza artificiale ha spiegato
  • Come funziona l'intelligenza artificiale
  • Storia dell'intelligenza artificiale
  • Applicazioni dell'intelligenza artificiale
  • Vantaggi dell'intelligenza artificiale
  • Limitazioni dell'intelligenza artificiale
  • Conclusione

L'intelligenza artificiale spiegata

L’intelligenza artificiale è una tecnologia che simula il modo in cui la mente umana apprende e lavora.

L’intelligenza artificiale è diversa dai programmi informatici standard in quanto può risolvere problemi utilizzando algoritmi o ragionamento logico. Inoltre, nella maggior parte delle applicazioni odierne, può apprendere e adattarsi senza l’intervento umano. Gli aspetti principali del campo dell’intelligenza artificiale includono l’apprendimento automatico (ML), l’elaborazione del linguaggio naturale (NLP) e le reti neurali.

Come funziona l'intelligenza artificiale

Un modello è un'istanza specifica di intelligenza artificiale. Ad esempio, ChatGPT 3.5 e ChatGPT 4 sono due modelli di intelligenza artificiale. Per comprendere i principali elementi costitutivi dell’intelligenza artificiale, ci concentreremo su diversi approcci concettuali alla creazione di un modello.

IA basata su regole o sistemi esperti

Il quadro più semplice è quello che viene chiamato sistema basato su regole o esperto: le persone scrivono istruzioni specifiche in una forma di logica che un algoritmo può comprendere. Il tipico albero telefonico dell'assistenza clienti funziona in questo modo: viene detto di dare una certa risposta all'input che corrisponde a determinati parametri. L'algoritmo fondamentale del PageRank di Google è un altro esempio, ma molto più sofisticato.

Apprendimento automatico

La maggior parte dell’intelligenza artificiale oggi utilizza un approccio chiamato machine learning. Invece di ricevere una serie di istruzioni codificate, il modello apprende le regole da solo da un ampio (o enorme) assortimento di contenuti: modelli, relazioni e altre dinamiche. Questo processo viene spesso chiamato training del modello. È anche possibile combinare regole e ML e discuteremo i vantaggi relativi di ciascuno in seguito.

Esistono quattro categorie principali di ML: apprendimento supervisionato, non supervisionato, semi-supervisionato e auto-supervisionato.

1 L'apprendimento supervisionato utilizza dati annotati o strutturati per indicare alla macchina cosa deve apprendere. Questo approccio si basa su set di dati etichettati, in cui l'output desiderato è già noto, consentendo al modello di apprendere la relazione tra input e output.

2 L'apprendimento non supervisionato non prevede istruzioni esplicite, quindi la macchina può dare un senso a ciò che vede da sola e quindi fare previsioni. Questo tipo di apprendimento viene utilizzato per trovare modelli nascosti o strutture intrinseche nei dati di input.

3 L'apprendimento semi-supervisionato è un approccio ibrido in cui il modello viene addestrato su una piccola quantità di dati etichettati integrati da una grande quantità di dati non etichettati. Questo metodo sfrutta i vantaggi sia dell’apprendimento supervisionato che di quello non supervisionato, migliorando l’efficienza e l’accuratezza dell’apprendimento quando i dati etichettati sono scarsi.

4 L'apprendimento auto-supervisionato è un approccio in cui il modello genera le proprie etichette dai dati di input. È particolarmente utile negli scenari in cui i dati etichettati sono limitati o non disponibili. Il modello utilizza parte dei dati di input per prevedere altre parti, creando di fatto i propri segnali supervisionati.

L'apprendimento non deve fermarsi con la formazione iniziale. Con l’apprendimento per rinforzo, il modello migliora continuamente in base al feedback sulla qualità del suo output. Questa valutazione può essere effettuata dagli esseri umani, ma esistono anche molte tecniche e algoritmi per l’apprendimento di rinforzo automatizzato.

Una volta addestrato il modello, è pronto per essere utilizzato. Un input viene eseguito attraverso il modello e fornisce un output, che si tratti di una risposta a una domanda, di classificazione di un'immagine, di disegno di un grafico e così via. Alcune IA (in particolare i modelli basati su regole) sono deterministiche, il che significa che un dato input porterà sempre a un certo output. Tuttavia, la maggior parte dei modelli moderni sono probabilistici e introducono un certo grado di casualità, il che spiega perché se inserisci la stessa identica domanda in ChatGPT due volte, è improbabile che otterrai la stessa risposta.

Ulteriori informazioni sull'apprendimento automatico

Reti neurali e deep learning

OK, ma comefunzionaeffettivamente l’intelligenza artificiale? È qui che le cose diventano molto tecniche molto rapidamente. Ci concentreremo sull'approccio alla base di molte delle odierne innovazioni dell'intelligenza artificiale, le reti neurali.

Queste rappresentazioni semplificate dei neuroni del cervello iniziano facendo ipotesi casuali, confrontano tali ipotesi con le risposte corrette e apportano continuamente piccoli aggiustamenti per migliorare continuamente la loro precisione.

Le reti neurali sono composte da strati. In “basso” c’è l’input, in alto c’è l’output e in mezzo ci sono i cosiddetti livelli nascosti. Dal basso verso l’alto, le capacità diventano sempre più astratte. Ad esempio, in un sistema di riconoscimento delle immagini, gli strati inferiori potrebbero riconoscere colori o bordi, mentre quelli superiori potrebbero percepire oggetti specifici.

Quando le reti neurali hanno più livelli nascosti, si parla di deep learning. Le reti neurali profonde di oggi hanno in genere molti livelli e spesso ci sono sottolivelli con funzioni specifiche. I miglioramenti nella potenza di elaborazione hanno innescato un’esplosione di innovazione.

Ulteriori informazioni sull'apprendimento profondo

Elaborazione del linguaggio naturale

Quando i computer cercano di comprendere il modo in cui gli esseri umani scrivono e parlano, si tratta di elaborazione del linguaggio naturale. Mentre un controllo ortografico di base evidenzia semplicemente le parole che non corrispondono al dizionario, Grammarly utilizza la PNL per comprendere la tua scrittura e fornire suggerimenti adatti al contesto.

Negli ultimi dieci anni circa, la PNL ha attraversato una rivoluzione, che avrai sicuramente sperimentato all'opera nella traduzione automatica, nella generazione di testi e nella trascrizione automatica. Tecniche come l'aumento dell'attenzione (quanto il modello può "tenere a mente" in un dato momento, piuttosto che limitarsi a elaborarlo parola per parola) e modelli pre-addestrati (in modo che non debbano imparare di nuovo come funziona il linguaggio umano da scratch) hanno reso possibile alle macchine di comprendere e suonare come gli esseri umani in molti contesti.

Ulteriori informazioni sull'elaborazione del linguaggio naturale

IA generativa

L’intelligenza artificiale generativa è un sottoinsieme dell’intelligenza artificiale in grado di produrre nuovi contenuti, come testo, immagini, musica e persino codice, in base ai dati di addestramento.

A differenza dei sistemi di intelligenza artificiale tradizionali, che sono adattati per compiti specifici o analisi di dati, i modelli di intelligenza artificiale generativa sono in grado di generare risultati originali che spesso imitano il lavoro creato dall’uomo. Questi modelli, basati su reti neurali profonde, intuiscono modelli, stili o logica da estesi set di dati. Quindi sfruttano questa conoscenza per creare contenuti nuovi e unici che prima non esistevano.

L’uso dell’intelligenza artificiale generativa abbraccia vari campi, tra cui intrattenimento, arte, letteratura e sviluppo di software. Ciò dimostra la versatilità dell’intelligenza artificiale e le sue capacità crescenti.

Per rivedere: l'intelligenza artificiale può essere basata su regole o ML. L'apprendimento automatico può essere supervisionato o non supervisionato e migliora nel tempo con l'apprendimento per rinforzo. Molti dei modelli di intelligenza artificiale odierni sono reti neurali che utilizzano il deep learning su più livelli. L’elaborazione del linguaggio naturale è una brillante storia di successo per le reti neurali profonde e i modelli che creano testo, immagini, codice e altro ancora sono chiamati AI generativa.

Scopri di più sull'intelligenza artificiale generativa

Storia dell'intelligenza artificiale

Qui forniremo una breve panoramica della storia dell’intelligenza artificiale. Nell'interesse della brevità e per concentrarci esclusivamente sulla tempistica di sviluppo, non menzioneremo le persone dietro queste innovazioni.

Anni '50 -'80: GOFAI primavera, poi inverno

Il termineintelligenza artificialefu coniato nel 1956. Nello stesso anno, il primo programma software di intelligenza artificiale dimostrò con successo vari teoremi matematici, uno dei quali era “più elegante” della dimostrazione offerta dall’autore originale.

La prima rete neurale fu costruita nel 1967, ma la maggior parte della ricerca sull’intelligenza artificiale in questo periodo fu condotta utilizzando la rappresentazione simbolica e la logica per simulare la mente razionale. (Potresti imbatterti nell'acronimo ironico GOFAI, che significabuona intelligenza artificiale vecchio stile.) Tuttavia, una combinazione di aspettative non realizzate e potere computazionale limitato ha portato al cosiddettoinverno dell'intelligenza artificiale, dove i finanziamenti e la ricerca hanno rallentato nel corso del tempo. Anni '70 e oltre.

Negli anni '80, i sistemi esperti, ovvero i modelli di intelligenza artificiale basati su regole di cui abbiamo parlato in precedenza, sono diventati popolari e hanno avuto un impatto pratico su molte aziende. Parallelamente, i ricercatori sono tornati alle reti neurali e hanno sviluppato tecniche per farle addestrare da sole.

Anni '90-2000: pervasivo ma sottovalutato

Con una maggiore potenza di elaborazione e set di dati più grandi, negli anni ’90, l’apprendimento automatico è diventato pratico su scala applicata e l’intelligenza artificiale ha raggiunto molti traguardi. Al di fuori dei film, il primo successo ampiamente noto dell'intelligenza artificiale risale probabilmente a quando Deep Blue batté Garry Kasparov a scacchi nel lontano 1997. Poco dopo, il primo programma di riconoscimento vocale consumer, Dragon, divenne disponibile per Windows.

Nonostante questi progressi, già nel primo decennio di questo secolo, molti ricercatori e aziende nascondevano i loro prodotti e progetti di intelligenza artificiale con altri termini perché avevano ancora una connotazione di esagerazione. L’ironia è che proprio questi sistemi, che alimentano qualsiasi cosa, dai filtri antispam a Roombas, hanno effettivamente portato il valore pratico dell’intelligenza artificiale applicata alla vita di tutti i giorni.

Anni 2010-oggi: l’intelligenza artificiale diventa mainstream

Negli anni 2010, l’intelligenza artificiale ha iniziato una ripresa che continua ancora oggi. Piuttosto che un singolo passo avanti, una serie di fattori convergevano:

  • GPU: nonostante il nome diunità di elaborazione grafica,questi chip si rivelano molto efficienti per l'addestramento delle reti neurali profonde. Uno spostamento verso l’utilizzo delle GPU ha accelerato sia la velocità che la portata pratica della creazione di nuovi modelli.
  • Progressi della ricerca: nuove forme e applicazioni delle reti neurali hanno portato a grandi passi avanti nella capacità dei computer di comprendere e riprodurre testi e immagini.
  • Big data: a questo punto, Internet esisteva da abbastanza tempo da consentire ai suoi miliardi di utenti di generare quantità insondabili di contenuti da cui i modelli potevano imparare.
  • Cloud computing: le piattaforme on-demand di Amazon, Google, Microsoft e altri hanno reso molto più semplice ottenere la potenza di calcolo necessaria per sviluppare modelli di intelligenza artificiale.

Le innovazioni create di recente o radicalmente riviste durante questo periodo includono Google Translate, assistenti virtuali come Siri e motori di raccomandazione su servizi come Netflix e Spotify, per non parlare di molti impatti importanti ma meno visibili su settori tra cui sanità, produzione e persino difesa. .

Allora perché la frenesia per l’intelligenza artificiale ha raggiunto livelli elevati una volta entrata in scena l’intelligenza artificiale generativa? La grande differenza è che modelli come ChatGPT e DALL-E possono interpretare e rispondere praticamente a qualsiasi input, anziché essere limitati a un determinato dominio. Ciò significa che chiunque disponga di una connessione Internet può interagire direttamente con un modello di intelligenza artificiale senza alcuna formazione specifica e che l’intelligenza artificiale può essere utilizzata per usi specifici molto più velocemente rispetto alla costruzione di un nuovo modello da zero.

Il futuro: AGI e ASI

Nonostante tutte le sue capacità, ciò che vediamo oggi è noto comeIAristretta o debole. Ciò significa una tecnologia che copre una parte ma non l’intera gamma dell’intelligenza umana. Una macchina che eguagli le capacità del nostro cervello sarebbe chiamataIA forte, ointelligenza generale artificiale (AGI). Una volta che l’intelligenza artificiale supera l’intelligenza umana, si parla di superintelligenza artificiale (ASI).

Quanto siamo lontani dall'AGI? Nessuno lo sa. Anche coloro che sono profondamente coinvolti nel settore hanno ripetutamente sottovalutato il ritmo dell’innovazione.

Applicazioni ed esempi di intelligenza artificiale

Questi sono solo alcuni dei tanti modi in cui l’intelligenza artificiale si presenta oggi nelle applicazioni del mondo reale.

Aiutare gli esseri umani a fare le cose meglio.Pensiamo che Grammarly sia un eccellente esempio in questo caso: hai le idee, il senso di ciò che stai cercando di dire e la conoscenza del pubblico. Suggeriamo modi per rendere il tuo messaggio più chiaro e aumentare le possibilità che venga ben accolto. Scopri di più su come Grammarly utilizza l'intelligenza artificiale generativa per migliorare la comunicazione.

Lavora in modo più intelligente con Grammarly
Il partner di scrittura basato sull'intelligenza artificiale per chiunque abbia del lavoro da svolgere

Assistere le persone con disabilità.Tecnologie come la sintesi vocale e la sintesi vocale rappresentano un punto di svolta per le persone con disabilità sensoriali, come l'udito o la vista. Consentono loro di accedere a contenuti live e registrati precedentemente inaccessibili, in modo che possano interagire molto di più con la ricchezza del mondo senza fare affidamento su qualcuno che funga da occhi o orecchie.

Sistemi autonomi.L’intelligenza artificiale può fondere la percezione con la previsione per fare tante cose in modo più efficiente e persino sicuro, dalle auto a guida autonoma ai sistemi di irrigazione che non funzionano quando sta per piovere. Waymo, la società di auto a guida autonoma fondata da Google, segnala circa l’85% in meno di incidenti con feriti rispetto a quelli che avrebbero avuto se gli esseri umani avessero percorso la stessa distanza.

Raccomandazioni.I modelli di intelligenza artificiale analizzano il comportamento e i dati demografici degli utenti per formulare ipotesi altamente plausibili su cose come il prossimo programma televisivo o il tipo di acqua frizzante che potresti voler provare.

Elaborazione audiovisiva.Gli esempi includono il riconoscimento vocale da parte di un assistente virtuale, la riscossione automatica dei pedaggi basata sull'elaborazione delle immagini delle targhe e il filtraggio del rumore visivo e audio da una registrazione o flusso.

IA bordo.Ciò trasferisce la potenza dell’intelligenza artificiale direttamente nei dispositivi nel mondo reale, piuttosto che in un data center. Questi tendono ad essere focalizzati sul laser su un compito specifico per un'elaborazione rapida e a basso consumo energetico. Gli esempi includono Face ID su un iPhone e termostati intelligenti.

Vantaggi e benefici dell'intelligenza artificiale

Elaborazione su larga scala.Immagina se una persona reale dovesse valutare ogni singola transazione con carta di credito per frode o inserire ogni singolo numero da ogni modulo fiscale inviato all'IRS. L’intelligenza artificiale può giudicare o classificare molto più velocemente, e spesso meglio, delle persone.

Rilevamento e previsione di modelli.L’intelligenza artificiale sta cominciando a superare quella umana nella sua capacità di rilevare il cancro; in un caso ha battuto i professionisti del 13%. È anche molto efficace nel rilevare quando le cose si discostano da uno schema riconosciuto, ad esempio nel rilevamento di errori nei database. Questo potere di ricerca di modelli rende l’intelligenza artificiale particolarmente utile per le previsioni, dalle previsioni meteorologiche ai movimenti del mercato azionario.

Nuove intuizioni.Fin dal primo modello, l’intelligenza artificiale ha fornito risposte e approcci a tutti i tipi di problemi che nessun essere umano ha mai affrontato. Gli esempi moderni spaziano dal design delle scarpe a una nuova legge della fisica.

Medicina accelerata.Dai vaccini contro il COVID-19 al rilevamento dell'Alzheimer, l'intelligenza artificiale sta aiutando i ricercatori a sviluppare diagnosi e trattamenti più rapidamente.

Vigilanza.L'intelligenza artificiale non si stanca mai. Finché è progettato correttamente e dotato di elettricità e potenza di elaborazione sufficienti, può monitorare continuamente grandi volumi di dati. Questo è uno dei principali fattori che contribuiscono al minor tasso di incidenti dei veicoli autonomi.

Svantaggi e limiti dell'intelligenza artificiale

Allucinazioni.L’intelligenza artificiale generativa può inventare cose. Poiché gran parte di ciò che dicono questi modelli è plausibile, molte persone non pensano di ricontrollarlo. Un esempio recente di questo problema si è verificato quando Michael Cohen, un ex avvocato, ha inviato citazioni al suo stesso avvocato di casi legali che erano stati interamente fabbricati dall'intelligenza artificiale generativa di Google, allora nota come Bard (ora Gemini).

Deepfake.Mentre le allucinazioni sono accidentali, i deepfake sono intenzionali. Gli attori malintenzionati (o, più innocentemente, i burloni) possono utilizzare l’intelligenza artificiale generativa per creare immagini, video, audio o testo che appaiono così vicini alla realtà che molte persone non riescono a distinguere.

Competizione con i posti di lavoro umani.Molte persone in ruoli come la scrittura e il servizio clienti vedono l’intelligenza artificiale generativa come una vera minaccia. Fortune riporta migliaia di posti di lavoro persi a causa dell’intelligenza artificiale, che secondo lui esplicitamente è “certamente sottostimata”.

Difficoltà a sapere perché sia ​​arrivato a una conclusione particolare.Con le reti neurali, non è possibile sapere esattamente perché o come forniscono un particolare output: ad esempio, non è possibile ricondurli direttamente a una determinata parte del corpus di addestramento. Nei settori altamente regolamentati, come quello sanitario o finanziario, alcune IA sono costruite parzialmente o interamente con algoritmi basati su regole che gli esseri umani possono valutare.

Consumo energetico.È difficile da misurare direttamente, ma uno studio stima che generare una singola immagine, come con DALL-E, utilizza quasi la stessa quantità di energia di un ciclo di ricarica di uno smartphone, che può aumentare in modo significativo nel tempo.

Conclusione

L’intelligenza artificiale è sia vecchia che molto recente. Sebbene il campo esista da quasi 70 anni, è solo negli ultimi dieci anni, e soprattutto negli ultimi anni, che molti di noi sono diventati profondamente consapevoli del suo potere e del suo potenziale. Grazie a innovazioni come le reti neurali, il deep learning, l’elaborazione del linguaggio naturale e l’intelligenza artificiale generativa, strumenti che non molto tempo fa sarebbero sembrati fantascienza sono ora facilmente disponibili e fanno una grande differenza nel mondo. Vuoi provare qualcosa di pratico adesso? Iscriviti a Grammarly e scopri come l'intelligenza artificiale può funzionare per te.