最終,我們希望將該技術設計成一幅電子眼鏡,我們親切地稱為“Smart Specs”。這種眼鏡將讓更多視障人士可以生活更獨立,幫助他們找出附近的物體、觀察他們的周圍環境。批量生產后,Smart Specs的成本將與一臺現代化的智能手機相當。其性能與一只經過充分訓練的導盲犬相當,但卻便宜得多。
搭建義肢仿真環境來驗證我們的設計
首先我們從仿真視網膜義肢的功能開始,探討如何提高低分辨率顯示圖像所能提供的信息量。我們使用LabVIEW和NI視覺開發模塊來開發仿真軟件。該模塊可支持多種不同的相機類型,給我們提供了現成的圖像處理函數、圖像采集驅動、顯示功能和圖像記錄功能。我們無需大量的開發就可以快速地采集原始圖像。我們已經發表了我們的方法和結果(van Rheede, Kennard and Hicks. Journal of Vision 2010)。
在這第一項的研究中,我們提出了使用機器視覺來簡化視頻流中的重要信息,重新生成一幅明亮,低分辨率的圖像,這樣的圖像也許可以幫助那些只有最低視覺能力的人士。接下來,我們開始了現在正在進行的研究,這個研究就完全基于LabVIEW、NI-IMAQ和Vision。
我們按照下列開發步驟來創建我們的系統:
1 失明仿真。
2 開發實時圖像優化,如邊緣檢測和對比度優化等。
3 開發實時的對象檢測算法,探索不同的方法來對圖像進行簡化,輸出適合具有嚴重視覺障礙人觀察的明亮圖像。
4 開發一套快速的臉部檢測算法來連接到簡化的圖像輸出。
5 開發實時且不受方向限制的文字識別算法。.
我們分別在健康對照組(在仿真失明條件下)和一個失明者身上使用上面描述的技術進行了原理驗證性研究。結果兩者都可以很容易地發現和識別出我們系統所處環境中的物體,而這些物體以往是看不到的。