Oggi viviamo un contesto tecnologico dove è un susseguirsi di annunci legati all’intelligenza artificiale (IA o AI, se in inglese).
Ma cosa è esattamente l’IA?
Perchè “adesso”?
Ma soprattutto, come facciamo a capire se è qui per restare e cambiare le “regole” oppure è soltanto l’hype del momento?
Partiamo dall’inizio.
L’informatica (Computer Science) si occupa principalmente di:
- Algoritmi e strutture dati
- Linguaggi di Programmazione
- Reti di calcolatori
- Ingegneria del software
- Database
- Interfacce uomo-macchina
- Sicurezza
- Intelligenza Artificiale
Quindi
Il termine “intelligenza artificale” è stato coniato nel 1955 da John McCarty, informatico, con l’intento di indicare “la scienza e l’ingegneria di rendere le macchine intelligenti“.
Questo evento però è preceduto da un altro evento: 5 anni prima Alan Turing, informatico, propone l’uso di un test per individure il livello di sofisticazione dei computer (in generale): un sistema è intelligente se riesce ad “ingananre” un umano sulla sua natura (comuter o umano).
Dagli anni novanta in poi, nel mondo tecnologico compaiono protagonisti che testimoniano l’avanzamento xxx yyy zzz, sotto varie forme:
- assistenti vocali (SIRI, ALEXA)
- dispositivi (Sony AIBO, iRobot Roomba)
- sistemi di calcolo (Deep Blue, Watson, AlphaGo)
Ognuno di questi sistemi vanta antenati noti per lo più agli addetti ai lavori.
Tanto per essere completi, notiamo anche che è stata creata anche una norma ISO: la ISO/IEC 42001:2023 Information technology – Artificial intelligence Management System (AIMS) definisce l’intelligenza artificiale come “la capacità di un sistema informatico di mostrare capacità umane quali il ragionamento, l’apprendimento, la pianificazione e la creatività”.
Infine, un mese fa il parlamento europeo ha approvato una legge per “governare” l’IA.
Devi effettuare l'accesso per postare un commento.