這個基於GPT-4的新功能名叫Virtual Volunteer,來自應用Be My Eyes。
GPT-4剛發布,就已經有手機應用程式接入了!
只需要上傳影像,再用語音提出需求,GPT-4就能幫助視障人士「看清」眼前的世界。
隨時隨地,即時解讀,就像聊天對話一樣自然。
例如想換裝,卻不知道手上的衣服是什麼顏色:
#只需要拍照上傳給GPT-4,它很快就能將衣服紋理描述出來,材質、顏色和形狀一清二楚:
#△翻譯by有道
在此之前,視障人士除了用手觸摸以外,辨別物體往往需要依靠身邊的人或是志工的幫助。
有網友看到後讚歎:這是目前見過最令人驚嘆的GPT-4應用程式之一!
所以,加入了影像理解功能的GPT-4,究竟展現了哪些能力?
這個基於GPT-4的新功能名叫Virtual Volunteer,來自應用Be My Eyes# 。
目前來看,包含問路、導覽、讀取選單、搜尋等功能,接入GPT-4的Virtual Volunteer都能很好地幫用戶完成。
例如問路。
只需要拍一張所在地點的照片,再透過語音詢問GPT-4如何到達指定地點,它就會輸出一條完整路線圖,「讀」給使用者聽:
△翻譯by有道
又例如讀圖翻譯#。
只需要給GPT-4看眼物品描述、甚至只是物件形狀,它就能搜尋並輸出這個產品的功能、具體說明和使用方法。
△翻譯by有道
再例如公眾場合導航。
想去健身房、卻無法掌握空閒的器材位置,只需要拍攝所在場景照片,GPT-4就能指引你走到無人的器材面前。
△翻譯by有道
當然,還有一點菜、使用自動販賣機買飲料、搜尋某種植物的姓名、給予時尚建議…
只要將需求告訴GPT-4,它就能幫助視障人士解決對應的問題。
不過,目前這項功能還在測試中,蘋果商店可以加入等待列表,至於安卓版也快來了。
搭載它的應用Be My Eyes,是一個為盲人開發的公益應用。
它最早是一個2012年成立的互助社區,並於2015年上線iOS版本應用,隨後又上線了安卓版應用。
這個應用程式分為志願者和盲人兩個群體,志願者會接受盲人傳過來的照片或視頻,透過語音溝通(打電話)幫助他們解決困難,目前已經有接近45w 視障人士和630w 志工使用。
如果成為志願者,則只需要保持在線,確保隨時可以接聽到視障人士的電話。
如果是視障人士使用,則可以在需要協助時撥打志工電話,或是尋求一些專業人士的協助:
##現在加入Virtual Volunteer之後,盲人也可以呼叫「虛擬志工」GPT-4的幫助,不用擔心深夜無人回應的問題。 官方也玩了諧音梗,AI→Eyes,「讓AI成為你的眼睛」: 還當起美版知乎問答bot當然,除了Be My Eyes應用以外,不少其他APP也在爭先恐後地接入GPT-4。 例如,在美版知乎Quora出的Poe上,現在已經可以和GPT-4聊天(限免一句話):
又像AI律師軟體DoNotPay,同樣已經接入了GPT-4,並計畫用它來推出「一鍵訴訟」服務。
基於這個服務,你看不順眼的電話詐騙,一鍵就能檢舉投訴。 如果接到電話詐騙,只需要點擊一個按鈕,對應的電話內容就會被全程錄音,並產生1000字的訴訟內容,索賠1500美元的金額。 (不過目前還只有美國地區適用)值得一提的是,DoNotPay的CEO Joshua Browder表示,他們之前也用GPT-3.5做過類似的功能,但效果不太行,GPT-4則已經能好好hold住這項要求。 甚至已經有網友嘗試用GPT-4來搞藥物發現了… 除了上述應用和功能以外,還有網友察覺到了GPT-4開發小遊戲的前景。 新的GPT-4似乎在程式設計可靠度上也有所提升,無論是在60秒內做一個打乒乓球小遊戲: 還是20分鐘內搞出一個完整的貪吃蛇: 都可以說是游刃有餘,提出更改需求也可以及時完成,編寫的簡單程序中基本上沒有遇到需要修改的bug。以上是GPT-4剛發布就有手機APP接入,上傳照片影片一鍵解讀,還當起了美版知乎的問答bot的詳細內容。更多資訊請關注PHP中文網其他相關文章!