Los bericht bekijken
  #12  
Oud 04 mei 2004, 14:37
joop's schermafbeelding
joop joop is offline
Forumbikkel
Model: Palm Treo 650
 
Geregistreerd: 03 februari 2004
Berichten: 140
Hoe het werkt.....

Even via Google opgezocht hoe het werkt.
Zie hieronder
Voor de niet-engels-lezenden:
Het toetsenbord wordt geprojecteerd en heeft geen detectie functie. Het zou ook een papieren velletje kunen zijn....
Vlak boven de tafel wordt met infrarood licht een horizontaal, dun vlak geprojecteerd. Dat is onzichtbaar.
Als je je vingers ergens in dat vlak houdt, reflecteren ze het infrarode licht.
Dit wordt met een camera-chip opgenomen. (zo'n video-camera CCD-ding)
Je kunt dit plaatje via software interpreteren en je bent er.
Natuurlijk niet zo simpel, maar als je het eenmaal in een chip gebakken hebt, kost het weinig meer. Idee komt uit Israël en was al in 2002 op de CeBit in Hannover te zien.

Groetjes,
Joop


VKB in 4 Easy Steps

Step 1: Template creation (Projection Module)

A template of the desired interface is projected onto the adjacent interface surface. The template is produced by illuminating a specially designed, highly efficient holographic optical element with a red diode laser. Note: the template serves only as a reference for the user and is not involved in the detection process. In a fixed environment, the template can just as easily be printed onto the interface surface.

Step 2: Reference plane illumination (Micro-illumination ModuleTM)

An infra-red plane of light is generated just above, and parallel to, the interface surface. This light is invisible to the user and hovers a few millimeters above the surface. When the user touches a key position on the interface surface light is reflected from this plane in the vicinity of the key and directed towards the sensor module.

Step 3: Map reflection coordinates (Sensor Module)

Reflected light from user interactions with the interface surface is passed through an infra-red filter and imaged on to a CMOS image sensor in the sensor module. Custom hardware embedded in the sensor chip (the Virtual Interface Processing CoreTM) then makes a real-time determination of the location of the reflected light. The processing core can track multiple reflection events simultaneously and can thus support both multiple keystrokes and overlapping cursor control inputs.

Step 4: Interpretation and communication (Sensor Module)

The micro-controller in the sensor module receives the positional information corresponding to the light flashes from the sensor processing core, interprets the events (e.g. keydown, keyup, mouse or touchpad control etc..) and communicates them through an appropriate interface to external devices.