Lav et projekt, som udforsker nye former for intelligente redskaber eller interfaces til hverdagsformål: Redskaber, der udnytter kameraer eller andre sensorer i et intelligent system som en væsentlig del af deres brugerflade. Projektet skal udfordre den traditionelle måde at gøre tingene på – med visuel gestik, tale, input fra andre genstande og sensorer. Inputs kan være data I selv genererer fra kameraer eller andre sensorer, eller de kan skabes ved brug af et eksternt API. Systemet kan være software såvel som hardware, og I kan vælge at uddybe eller forandre forslagene nedenfor, eller selv skabe og vælge ide, målgruppe, anvendelsesområde og teknologier.
Overvej om jeres redskab er begrænset til én specifik fysisk (eller virtuel) styringsmekanisme, eller om samme interface kan styre flere forskellige ting.
Fysiske knapper og håndtag er langsomt ved at forsvinde – vi kan i hvert fald konstatere, at digitale grænseflader er ved at overtage mange former for interaktion mellem mennesker og fysiske installationer. Enten i form af digitale assistenter, som man kan tale til (Google Home, Siri, Alexa) eller i form af en app på telefonen – der er en app til alting. Men de talestyrede devices skal jo (af-)lytte med hele tiden – er vi trygge ved det? Og en app har sine begrænsninger: Vi ved godt, at det kan være lettere at rejse sig og gå hen til stikkontakten eller skrue på volumenknappen, end at finde den s***** app frem i mylderet på telefonen.
Samtidig åbner fremskridt inden for Machine Learning/AI, samt prisfald i sensorteknologi, i dag et rum for nye interaktionsformer, som ligger et sted imellem digitale og fysiske interfaces. Musik kan styres, som vi så på CAVI i Aarhus, med brikker der kan drejes og flyttes på et transparent bord, hvor et kamera ser de grafiske symboler (fiducials) på deres underside. Belysning kan styres ved hjælp af gestik og håndtegn, eller ved position i rummet, vejrforhold eller for den sags skyld af breaking news… (!) Eller måske kan robotstøvsugeren styres med en fløjten, som om den var en dygtig hund.
Det er et krav, hvis I vælger dette projekttema, at Machine Learning/AI indgår som et centralt element i produktet, samt at I selv sørger for en del af udformningen og træningen af det intelligente system.
Vælger I at lave et projekt inden for dette tema, vil AI og Machine Learning selvsagt være centrale, og herunder også overvejelser over sensorer, features, algoritmer og træningsdata. Men interaktionsdesign og brugerflader vil være mindst lige så vigtige emner at arbejde med og inddrage i projektet.
Projekteksempel: Intelligent energiforbrug
I dag findes der omfattende data om hvornår man burde starte energikrævende husholdningsapparater, men det bliver sjældent taget i brug: Hjemmets maskiner mangler funktionalitet og information, som kan hjælper brugere på vej.
Brug for eksempel API’et fra energidataservice til at skabe et interface, som kan oplyse brugeren og gøre energikrævende husholdningsapparater eller andet elektrisk udstyr selvstyrende. Det kunne fx være vaskemaskinen, der kunne lave en intelligent fortolkning af data fra API’et og sørge for at pause og starte (hvis den er fyldt) når strømmen forventes at være billig, eller når huset er tomt eller folk sover, eller når der bliver produceret mest fornybar energi – alt sammen måske startet med et anerkendende lille klap på toppen af maskinen.
Projekteksempel: Musik til loungen
Et projekt, med afsæt fx i CAVI-eksemplet ovenfor, der giver gæster i en lounge eller på en restaurant adgang til at kontrollere aspekter af musikken i lokalet ved hjælp af et interface på bordet. Overvej hvordan inputs fra forskellige borde skal spille sammen, og overvej hvordan brugerens input skal tolkes i relation til det, der aktuelt afspilles, samt systemet skal trænes til at foretage en sådan tolkning. Overvej desuden hvad der vil skulle kræves af højttalersystemet i lokalet.
Projekteksempel: Interaktivt læserum i VR
Har du nogensinde prøvet at læse en bog på sengen? Så vil du kende paradokset, at bogens position er positivt afgørende for oplevelsen, men omvendt proportional med hvor meget du skal anstrenge dine arme. Lav en intelligent læseapplikation i VR, som giver brugeren den ultimative, liggende læseoplevelse. Skab de enklest tænkelige interaktionsmuligheder for at slå op, bladre, og til sidst lægge bogen væk og slukke lyset.
Dette projekt ville kombinere de to nøgletemaer: VR og Intelligente systemer. Det ville kunne udvides på mange måder, fx interaktionsformer til faglig læsning: opslag og noter (med talegenkendelse).
Projekteksempel: Smart skraldesortering med kamera og YOLO
Lav en smart skraldespand, som selv kan se, hvilken slags affald du smider ud, og fortæller dig, om det skal i restaffald, plast eller papir.
Systemet kan fx vise på en skærm, hvor affaldet skal hen. I kan også lave en funktion, hvor skraldespanden i stedet fortæller det (talesyntese), eller måske selv åbner den rigtige låg, når den ser, hvad du smider ud (fx med en Arduino).