Een natuurlijke gebruikersinterface (NUI) is een systeem voor mens-computerinteractie dat de gebruiker bedient door middel van intuïtieve handelingen die verband houden met natuurlijk, alledaags menselijk gedrag.
Een NUI kan op een aantal verschillende manieren worden bediend, afhankelijk van het doel en de eisen van de gebruiker. Sommige NUI's maken voor de interactie gebruik van intermediaire apparaten, maar geavanceerdere NUI's zijn onzichtbaar voor de gebruiker of zo onopvallend dat ze al snel onzichtbaar lijken.
Enkele voorbeelden en toepassingen van natuurlijke gebruikersinterfaces:
Touchscreen-interfaces maken een intuïtievere interactie tussen gebruikers en besturingselementen en toepassingen mogelijk dan een interface op basis van een cursor, omdat de interactie directer is - in plaats van bijvoorbeeld een cursor te bewegen om een bestand te selecteren en te klikken om het te openen, raakt de gebruiker een grafische weergave van het bestand aan om het te openen. Smartphones en tablets zijn meestal geschikt voor aanraakinvoer. Aanraking wordt ook aangepast voor niet-schermtoepassingen. Microsoft werkt bijvoorbeeld aan een aanraakinterface die "skinput" wordt genoemd en waarmee gebruikers kunnen communiceren door op hun eigen huid te tikken.
Gesture recognition systemen volgen de bewegingen van de gebruiker en vertalen die bewegingen naar instructies. De bewegingsspelsystemen van Nintendo Wii en PlayStation Move werken met versnellingsmeters en gyroscopen die op de controller zijn gebaseerd om kanteling, rotatie en versnelling waar te nemen. Een meer intuïtief type NUI is uitgerust met een camera en software in het apparaat die specifieke gebaren herkent en vertaalt naar acties. Microsofts Kinect, bijvoorbeeld, is een bewegingssensor voor de Xbox 360-gameconsole waarmee gebruikers kunnen communiceren via lichaamsbewegingen, gebaren en gesproken opdrachten. Kinect herkent het lichaam en de stem van individuele spelers. Gebarenherkenning kan ook worden gebruikt voor interactie met computers.
Spraakherkenning stelt gebruikers in staat om via gesproken commando's met een systeem te communiceren. Het systeem herkent gesproken woorden en zinnen en zet ze om in een machineleesbaar formaat voor interactie. Toepassingen van spraakherkenning zijn onder meer gespreksroutering, spraak-naar-tekst en handsfree bediening van computers en mobiele telefoons. Spraakherkenning wordt soms ook gebruikt voor interactie met ingebedde systemen.
Gaze-tracking interfaces stellen gebruikers in staat om een systeem te besturen via oogbewegingen. In maart 2011 kondigde Lenovo aan dat het de eerste ooggestuurde laptop had geproduceerd. Het systeem van Lenovo combineert een infrarode lichtbron met een camera om reflecterende glinsteringen van de ogen van de gebruiker op te vangen. Software berekent het gebied van het scherm waarnaar wordt gekeken en gebruikt die informatie voor input.
Brain-machine interfaces lezen neurale signalen en gebruiken programma's om die signalen in actie om te zetten. BCI can make it possible for someone who is paralyzed to operate a computer, motorized wheelchair or prosthetic limb through thought alone.
Speaking at a 2008 conference, Microsoft’s August de los Reyes spoke of the NUI as the next evolutionary stage in computing from the graphical user interface (GUI), as the GUI was from the command-line interface (CLI).
See also: usability, pervasive computing, smart home
Continue reading about natural user interfaces:
Wikipedia on natural user interfaces
Natural User Interfaces: Voice, Touch and Beyond
Lenovo's Laptops Are First to Have Eye-Control Ability
Defining the natural user interface