Se si guarda il modulo delle emozioni di GAEA nel suo insieme, la posizione di EMOFACE è in realtà molto chiara:
È responsabile dei “segnali emotivi a livello facciale”.
A differenza dei modelli che si occupano solo di analisi semantica, EMOFACE si concentra maggiormente sulle informazioni non verbali delle persone in uno stato reale, come le variazioni dell'espressione facciale e le sottili fluttuazioni dell'intensità emotiva. Questi dati sono spesso più difficili da gestire e più facilmente fraintendibili.
Dalle informazioni pubbliche, EMOFACE non esiste in modo isolato, ma è una parte integrante del sistema emotivo, lavorando in sinergia con altri moduli per rendere il giudizio dell'AI più stabile, e non più 'esagerato'.
Questo approccio non può essere definito dirompente, ma almeno dimostra che GAEA ha scelto un modo più lento e strutturato per comprendere le emozioni.
Se ha un valore reale, dobbiamo aspettare più scenari d'uso reali per verificarlo.