• English
    • norsk
  • English 
    • English
    • norsk
  • Login
View Item 
  •   All institutions
  • Norges teknisk-naturvitenskapelige universitet
  • Fakultet for informasjonsteknologi og elektroteknikk (IE)
  • Institutt for datateknologi og informatikk
  • View Item
  •   All institutions
  • Norges teknisk-naturvitenskapelige universitet
  • Fakultet for informasjonsteknologi og elektroteknikk (IE)
  • Institutt for datateknologi og informatikk
  • View Item
JavaScript is disabled for your browser. Some features of this site may not work without it.

Intelligente Brukergrensesnitt i Smarte Hjem

Flakstad, Andreas Arning
Master thesis
Thumbnail
View/Open
12180_FULLTEXT.pdf (6.568Mb)
12180_ATTACHMENT.zip (101.5Mb)
12180_COVER.pdf (181.7Kb)
Permanent link
http://hdl.handle.net/11250/2353492
Issue date
2015
Share
Metadata
Show full item record
Collections
  • Institutt for datateknologi og informatikk [2227]
Abstract
Dette prosjektet har hatt som mål å utforske ulike brukergrensesnitt i smarte hjem. Spesielt har fokuset vært på å utforske intelligente brukergrensesnitt; alternative interaksjonsmetoder som kan ha økt effektivitet og som oppleves som mer naturlige i bruk. Dette ble utfordret gjennom å spørre hva slags programvare man ønsker i smarte hjem. Basert på logisk argumentasjon og empiriske bevis fra to studier, viste jeg at brukere av smarte hjem ønsker å lære om hjemmets tilstand, og de ønsker å utøve styring over hjemmet. Samtidig må privatliv og personvern beskyttes. Med dette utgangspunktet utforsket jeg hvordan gester og tale kan benyttes for å gi kommandoer, og hvordan informasjonen om hjemmets tilstand best mulig kan presenteres.

Jeg har vist at maskinlæring kan benyttes for å gi enkle sensorer en mer detaljert forståelse av abstrakte gester, enn det som eksplisitt kan programmeres. På bakgrunn av teknologiske begrensninger og sikkerhetsmessige problemer, har jeg vist at det i et hjem-scenario er mer aktuelt med begrenset talegjenkjenning enn naturlig talegjenkjenning. Jeg har vist at begrenset talegjenkjenning og maskinlærte gester i kombinasjon er en aktuell, multimodal måte å styre hjemmet på. Til sist har jeg vist hvordan et tradisjonelt brukergrensesnitt kan forbedres ved å designe rundt presentasjon av kontekstinformasjonen, framfor brukerinteraksjon. En prototype ble utviklet, der fokusert var å så mye informasjon som mulig om hjemmet gjennom teknikker fra grafisk design. Regler for hvordan å vise den mest essensielle informasjonen ble utforsket og implementert i et grafisk brukergrensesnitt, som forandrer seg dynamisk basert på kontinuerlige datastrømmer fra det smarte hjemmet.
Publisher
NTNU

Contact Us

Search NORA
Powered by DSpace software

Service from BIBSYS
 

 

Browse this CollectionIssue DateAuthorsTitlesSubjectsDocument TypesJournalsBrowse all ArchivesArchives & CollectionsIssue DateAuthorsTitlesSubjectsDocument TypesJournals

My Account

Login

Statistics

Google Analytics StatisticsView Usage Statistics

Contact Us

Search NORA
Powered by DSpace software

Service from BIBSYS