L’intelligenza artificiale non riesce ancora a decodificare le espressioni del viso, e capire se siamo contenti oppure arrabbiati. Ma ancora per poco. Infatti, quanto prima sarà possibile tradurre in sequenze di bit le nostre emozioni così da renderle interpretabili e comprensibili alle macchine. Ad un progetto del genere stanno lavorando il Mit di Boston e docenti dell’università di Cambridge. In pratica stanno cercando di elaborare un software in grado di tenere sotto controllo 24 punti del viso per codificare cosa stiamo provando momento dopo momento. Davvero tante le implicazioni pratiche. Esempio: un docente potrà monitorare il grado di attenzione dei suoi studenti nel corso di una lezione. Ancora: in macchina, il navigatore capirà se siamo stressati consigliandoci di fermarci appena possibile, oppure potrà proporci percorsi alternativi, magari leggermente più lunghi ma senza traffico. Quanto prima, la tecnologia riuscirà a trasformare in informazioni comprensibili a pc e cellulari il nostro stato d’animo. Insomma, per capire se siamo arrabbiati o felici, chi ci sta accanto lo chiederà al computer o al telefonino.