Banner Top
Banner Top

Pc e cellulari capiranno se siamo arrabbiati

L’iComputer giovanintelligenza artificiale non riesce ancora a decodificare le espressioni del viso, e capire se siamo contenti oppure arrabbiati. Ma ancora per poco. Infatti, quanto prima sarà possibile tradurre in sequenze di bit le nostre emozioni così da renderle interpretabili e comprensibili alle macchine. Ad un progetto del genere stanno lavorando il Mit di Boston e docenti dell’università di Cambridge. In pratica stanno cercando di elaborare un software in grado di tenere sotto controllo 24 punti del viso per codificare cosa stiamo provando momento dopo momento. Davvero tante le implicazioni pratiche. Esempio: un docente potrà monitorare il grado di attenzione dei suoi studenti nel corso di una lezione. Ancora: in macchina, il navigatore capirà se siamo stressati consigliandoci di fermarci appena possibile, oppure potrà proporci percorsi alternativi, magari leggermente più lunghi ma senza traffico. Quanto prima, la tecnologia riuscirà a trasformare in informazioni comprensibili a pc e cellulari il nostro stato d’animo. Insomma, per capire se siamo arrabbiati o felici, chi ci sta accanto lo chiederà al computer o al telefonino.

Griglia in fondo agli articoli
Griglia in fondo agli articoli
Griglia in fondo agli articoli
Griglia in fondo agli articoli
Griglia in fondo agli articoli
Griglia in fondo agli articoli
Griglia in fondo agli articoli
Griglia in fondo agli articoli
Griglia in fondo agli articoli
Griglia in fondo agli articoli
Griglia in fondo agli articoli
Griglia in fondo agli articoli
Griglia in fondo agli articoli
Griglia in fondo agli articoli

Related posts