Cos’è e quali sono le caratteristiche del Machine Learning in informatica

Cos’è e quali sono le caratteristiche del Machine Learning in informatica

Il Machine Learning (abbreviato con ML) rappresenta una delle aree fondamentali dell’Intelligenza Artificiale (IA) e si occupa della realizzazione di sistemi che si basano su osservazioni o esempi come dati per la sintesi di nuova conoscenza (classificazioni, generalizzazioni, riformulazioni).

Il Machine Learning (ML) o Apprendimento automatico è una disciplina scientifica ed informatica che progetta e sviluppa algoritmi che consentono agli elaboratori di evolvere il proprio comportamento basandosi su dati empirici. Il principale obiettivo di ricerca in ambito di Machine Learning è “imparare” a riconoscere automaticamente pattern complessi ed effettuare scelte intelligenti basandosi su dati già analizzati. La necessità di ricorrere al ML nasce dal fatto che prevedere a priori l’intero set di possibili comportamenti in base all’input, costruendo per esempio manualmente un set di regole, è troppo complesso da descrivere in un linguaggio di programmazione.

Cos'è e quali sono le caratteristiche del Machine Learning in informatica

Parallelamente, la difficoltà di tale metodologia risiede nell’incertezza con cui si individua una corrispondenza tra input e output: essa si basa su un meccanismo parametrico per la generazione dei dati, di cui però non si conoscono a priori valori esatti dei parametri.

Caratteristica del ML è l’induzione, ossia l’estrazione di leggi generali a partire da un insieme di dati osservati. Essa si contrappone alla deduzione in cui, a partire da leggi generali, si prevede il valore di un insieme di variabili.
L’induzione parte dall’osservazione per misurare un insieme di variabili e per poi effettuare previsioni su ulteriori dati. Questo processo complessivo nel quale, a partire da un insieme di osservazioni, si vuole effettuare previsioni su nuovi dati prende il nome di inferenza.

Le situazioni di difficile soluzione mediante algoritmi tradizionali sono numerose e dovute tipicamente alla presenza di:

  • Difficoltà di formalizzazione: per esempio ognuno di noi sa riconoscere se una certa immagine raffiguri il volto di un amico ma probabilmente nessuno sa descrivere una sequenza di passi computazionali che, eseguita sui pixel, consenta di rispondere alla domanda.
  • Elevato numero di variabili in gioco: quando si considera ad esempio l’elaborazione di documenti in linguaggio naturale, la specifica di tutti i parametri che si pensa possano essere coinvolti può essere particolarmente complessa. Inoltre, la stessa formalizzazione applicata in un medesimo contesto ma su corpora differenti potrebbe rivelarsi inadeguata e richiedere una nuova rielaborazione.
  • Mancanza di teoria: si immagini di dover prevedere con esattezza l’andamento dei mercati finanziari in assenza di leggi matematiche specifiche.
  • Necessità di personalizzazione: la distinzione tra documenti “interessanti” e “non interessanti” dipende significativamente dalla percezione del singolo utente.

Gli algoritmi di apprendimento automatico sono tradizionalmente divisi in tre principali tipologie:

  1. Apprendimento supervisionato: quando l’utente fornisce esempi (e controesempi) di quello che si deve apprendere. Questo è il problema più studiato nel machine learning infatti esso si pone l’obiettivo di prevedere, dato un elemento di cui si conoscono un insieme di parametri (features), il valore di un diverso parametro di output relativo all’elemento stesso.
  2. Apprendimento non supervisionato: parte da osservazioni non preclassificate
  3. Apprendimento con rinforzo: tecnica di programmazione che si basa sul presupposto che l’algoritmo possa ricevere stimoli dall’esterno a seconda delle scelte fatte.
Precedente Ontologie, RDF, RDF Schema e OWL nel web semantico Successivo Database NoSQL: Caratteristiche del database MongoDB

Lascia un commento

*