7 個你可能不知道的 BenQ 大屏內建 AI 學習工具
  • BenQ
  • 2024-03-08

7 個你可能不知道的 BenQ 大屏內建 AI 學習工具
7 個你可能不知道的 BenQ 大屏內建 AI 學習工具

AI 正在重塑教育習慣,無論師生,都正在使用 AI 改善學習體驗。 BenQ  大屏及其軟體中內建了 7 種 AI 學習工具,使學習變得更平易近人、更包容,也更安全。本文將探討這些功能及其優點。 

1. 將紙本講義變成可編輯的文件

若您是依賴教科書和紙本講義上課的老師,BenQ 大屏可以幫助您將紙本數位化,以便您可以繼續在課堂上使用。借助「光學字元辨識」(OCR),您甚至可以直接從紙本講義中擷取文字,完全無需手動輸入,省下大量時間和精力。

假設您在課堂上使用課本,並想輕鬆和學生分享可編輯的課本頁面,您可以使用文件相機掃描紙本,或直接對著該頁面拍照,接著匯入相片至大屏的電子白板書寫軟體 EZWrite 中,點擊「OCR 按鈕」,就將自動擷取照片中的文字,並將其貼到可編輯的文字方塊中。

然後就可以開始編輯這些文字、畫重點,甚至可以透過 OCR 的下一個功能搭配,讓大屏自動大聲朗讀內容。

2. 讓黑板唸給學生聽

朗誦課文是每個學生的共同回憶,然而並不是每位學生都能輕鬆做到。BenQ 大屏上的「文本轉語音」 (TTS) 功能可以朗讀課文給全班同學聽。這功能最初是為了幫助視障人士閱讀而開發的,但當時的合成語音缺乏語言的抑揚頓挫,聽起來機械感很濃重。

如今,TTS 服務提供了更自然、更準確的發音水準,讓學生更能專注學習。對於有閱讀困難的學生來說,TTS 是一個很有價值的工具,能幫助他們充分參與課程。

據估計,18 歲以下的美國兒童中有 3% 有視力障礙,1 而 6-7% 的兒童有學習障礙,2 其中 85% 的困難與寫作或閱讀有關。

 

截至 2021 年,約有 4,940 萬名學生在美國公立學前班和 K-12 學校就讀,其中超過 100 萬名學生面臨閱讀障礙的困境。3 為了幫助這些學生,BenQ 大屏上的 EZWrite 整合了 TTS 功能,老師可以透過 EZWrite  開啟課文內容,並點擊按鈕,讓大屏自動大聲朗讀,顧及不同學生的程度和需求。

3. 使筆跡清晰易讀

想像一下:您的白板上佈滿了註釋,從註釋、數字到形狀。您想讓這些筆跡更容易閱讀和編輯,但又不想全部列印。 這時 EZWrite 手寫辨識工具的用武之地,它能讓您的筆記更加清晰,並節省您的時間和精力。

只要選擇您的手寫內容,點擊「手寫辨識按鈕」,EZWrite 就會將您的書寫內容轉換為完全可讀、可編輯的文字,還可以調整文字的大小和粗體,讓學生看得更清楚,也能進一步利用 TTS 朗讀、翻譯、與學生分享或課後搜尋。此功能支援多國語言,甚至還可以將數字轉換為文字。

EZWrite 的手寫辨識功能也適用於形狀。在板上隨意畫一個形狀,選擇該圖形,然後點擊「形狀識別按鈕」,就能轉換為完美的幾何形狀,而且還可以調整大小、更改線條粗細、輪廓和填滿顏色、複製多個形狀等等。

如上所述,使用手寫辨識工具不僅更能補充課堂內容,還可以提高可搜尋度。將課程匯出到雲端儲存(例如 Google Drive)後,使用快速關鍵字搜尋,就能搜索到所有相關課程文件,這將使您在緊急時刻,輕鬆找到和查看課堂筆記。

4. 跨越語言藩籬

翻譯工具可以幫助師生取得和學習外語教材,並為課堂主要語言非母語的學生提供協助。

事實上,根據美國國家教育統計中心的數據,截至 2020 年,美國學校約有 10.3% 的學生(即 500 萬名學生)是英語學習者,也就是母語非英語者。4 這就是全新 BenQ 大屏配備 Google 翻譯工具的主因,只需從 59 種語言中選擇想使用的語言。然後,就像使用 TTS 一樣,在 EZWrite 中反白顯示要翻譯的內容,再按翻譯按鈕,即可馬上翻譯!

老師在面對多語系學生時,可以使用這項功能幫助不同學生,快速理解教學內容。 或者,假設研讀世界歷史或國際研究課程的學生,想要以從未被翻譯過的另一種語言學習,也可以輕鬆透過大屏獲得翻譯。

在語言課中,學生也可以將翻譯當作字典來查詞義。如果想進行更進階的語言練習,甚至可以將編輯和改進翻譯,當作為一項課內活動。

5. 確保共享安全

透過 BenQ 大屏,學生可以輕鬆手機和 Chromebook 筆電裡的內容無線分享到電子白板。這是改善協作和呈現的好方法。

然而,仍有學生會蓄意向電子白板投射不當內容,試圖擾亂課堂秩序,為了防止這種情況發生,BenQ 在特定的大屏型號上,將 AI 內容審核器整合到 InstaShare 2 螢幕共用程式中。該 AI 審核器會即時過濾將被分享的影像,阻止成人內容出現在大屏上,確保減少干擾並創造更安全的課堂氛圍。

6. 重要訊息不漏聽

音質差會導致學習效果不佳:根據最近的一項研究,多達三分之一的學生表示,線上課程中,若遇到音質差的時候,他們感到挫折。5更糟糕的是,約 14.9 % 的 9 歲以下學生具有「輕微聽力損失」6 ,即使聽力正常的學生,在聲學和背景噪音較多的教室中,也會錯過 25% 的教學內容。7

為了解決這個問題,BenQ 大屏內建攝影機配備了降噪麥克風,可以阻擋串流媒體課程和錄音中不需要的聲音。無論是雷雨的隆隆聲,還是空調的嗡嗡聲,此功能都能完美消除分散注意力的背景噪音,以確保音質清晰。

7. 確保每個與會者都入鏡

計劃進行混合會議、舉辦遠距比賽或視訊通話? 如果是這樣,想必您希望專注於意見交流而不是一直移動攝影機,以讓與會者入鏡。

如果您將 DV01K 相機搭配 BenQ 大屏,就能用 AI 取景工具,幫助您保持焦點。 DV01K 具有 AI 驅動的臉部和語音追蹤功能,還具有自動取景功能,可在說話時鎖定發言者的臉部,因此無需直接站在攝影機前,可確保發言者,始終位於鏡頭的中心。 

開始使用 AI 增能的教育解決方案

透過 EDLA BenQ 大屏和 DV01K 相機,即可輕鬆使用上述工具、充分汲取 AI 資源,強化學習體驗,就是如此輕鬆簡單。想要利用 BenQ 大屏和 AI 工具來改善課程嗎?歡迎與我們聯繫,立即預約,將有專業補教顧問,一對一為您實機展示!

References

  1. “Fast Facts About Vision Loss”, Centers for Disease Control and Prevention, 19 December 2022, https://www.cdc.gov/visionhealth/basics/ced/fastfacts.htm, last accessed 28 August 2023.
  2. “Dyslexia Basics”, International Dyslexia Association, https://dyslexiaida.org/dyslexia-basics/, last accessed 29 August 2023.
  3. “Fast Facts - Back to School Statistics”, National Center for Education Statistics, 2022, https://nces.ed.gov/fastfacts/display.asp?id=372#:~:text=In%20fall%202021%2C%20about%2049.4,kindergarten%20to%20grade%208%3B%20and, last accessed 29 August 2023.
  4. “English Learners in Public Schools”, National Center for Education Statistics, 2023, https://nces.ed.gov/programs/coe/indicator/cgf/english-learners#:~:text=The%20percentage%20of%20public%20school,%2C%20or%204.5%20million%20students), last accessed 28 August 2023.
  5. “Reimagining Education with High-quality Audio - Drive Student Engagement and Focus While Learning From Anywhere”, EPOS, Frost & Sullivan, 2020, https://www.eposaudio.com/en/gb/enterprise/insights/white-papers/reimagining-education-with-high-quality-audio, last accessed 11 September 2023.  
  6. Elbeltagy, R., “Prevalence of Mild Hearing Loss in Schoolchildren and its Association with their School Performance”, International Archives of Otorhinolaryngology, January 2020, vol. 24, p.93-98.
  7. Classroom Acoustics I, The Acoustical Society of America, 2000, p.1, https://files.eric.ed.gov/fulltext/ED451697.pdf, last accessed 29 August 2023.