Standard MIDI często okazuje się być świetnym rozwiązaniem dla osób, które z rozmaitych powodów nie są w stanie obsługiwać tradycyjnych instrumentów muzycznych. W ciągu kilku ostatnich lat stał się on podstawą działania wielu naprawdę ciekawych projektów ułatwiających ludziom z ograniczonymi zdolnościami motorycznymi tworzenie i wykonywanie muzyki. Najnowszy z nich – Eye Conductor – umożliwia sterowanie wirtualnymi instrumentami za pomocą mimiki twarzy.
Wspomniane oprogramowanie wykorzystuje zwykłą kamerę internetową oraz tzw. Eye-Tracker do rozpoznawania ruchu gałek ocznych, brwi, ust i głowy, a następnie zamieniania ich na komunikaty MIDI sterujące wirtualnymi instrumentami. Na obecnym etapie rozwoju Eye Conductor pozwala między innymi zmieniać wysokość dźwięku, kontrolować natężenie efektów, wyzwalać sample i sterować prostym sekwencerem krokowym. Sposób obsługi poszczególnych elementów oprogramowania może być dostosowywany do indywidualnych potrzeb i umiejętności użytkownika.
Autorem projektu jest Andreas Refsgaard, który w trakcie prac nad swoim dziełem współpracował z wieloma testerami o różnym stopniu niepełnosprawności. Podobnie jak miało to miejsce w przypadku innych podobnych pomysłów, celem przyświecającym twórcy Eye Conductor było stworzenie narzędzia umożliwiającego osobom niepełnosprawnym wyrażenia siebie poprzez muzykę. Projektowi patronuje Copenhagen Institute of Integration Design.