日韩有码亚洲专区|国产探花在线播放|亚洲色图双飞成人|不卡 二区 视频|东京热av网一区|玖玖视频在线播放|AV人人爽人人片|安全无毒成人网站|久久高清免费视频|人人人人人超碰在线

首頁 > 文章中心 > 語音視頻

語音視頻

前言:想要寫出一篇令人眼前一亮的文章嗎?我們特意為您整理了5篇語音視頻范文,相信會為您的寫作帶來幫助,發(fā)現(xiàn)更多的寫作思路和靈感。

語音視頻

語音視頻范文第1篇

文章結(jié)合我校大學英語網(wǎng)絡(luò)教學改革已進行到中期階段的背景,依據(jù)相關(guān)的外語習得及教學理論,結(jié)合課題的研究內(nèi)容與目標,對我校正在開發(fā)的大學英語音視頻資源庫進行詳細論述及深入探討。以資源的準確性、實用性、完整性、可擴展性為標準,對教學資源科學分類整合,構(gòu)建音視頻資源庫平臺,服務(wù)于學生的自主學習,提升學生英語學習的興趣與效率,強化他們的自主學習能力。并對后續(xù)存在的問題進行了探究,提出可行的解決方案。

關(guān)鍵詞

教學改革;自主學習;資源庫;開發(fā);應(yīng)用

0引言

我校在過去10年推行了大學英語網(wǎng)絡(luò)化教學改革,投入數(shù)百萬元建成了13個網(wǎng)絡(luò)型語音室,構(gòu)建了完善的英語自主學習環(huán)境,硬件設(shè)施在省內(nèi)遙遙領(lǐng)先,但在軟件資源建設(shè)及后續(xù)投入上卻乏力。僅創(chuàng)建了網(wǎng)絡(luò)英語學習平臺主頁,鏈接了外教社的新理念學習平臺,但網(wǎng)站里內(nèi)容不夠充實,大多是一些外鏈資源,缺乏實用性和自主性,對學生沒有吸引力。為了構(gòu)建完善的大學英語自主學習與教學網(wǎng)絡(luò)資源庫,進一步推進大學英語教學改革進程,課題組成員擬用兩年時間完成大學英語音視頻資源庫的開發(fā)和建設(shè),根據(jù)師生應(yīng)用中的反饋意見,積極改進各項功能,完善資源庫。

1資源庫開發(fā)的理論基礎(chǔ)

自主學習是以學生作為學習的主體,通過學生獨立地分析、探索、實踐、質(zhì)疑、創(chuàng)造等方法來實現(xiàn)學習目標,培養(yǎng)學生搜集和處理信息的能力、獲取新知識的能力、分析和解決問題的能力以及交流與合作的能力?;谶@一觀點,筆者認為大學英語的自主學習應(yīng)是給予每個學習者理想的外語學習環(huán)境,通過教師的引導(dǎo),充分調(diào)動每個學習者的主動性,最終達成英語學習的目標。而理想的外語學習環(huán)境,就目前我校大學英語教學改革的現(xiàn)狀,首要任務(wù)就是完善自主學習中心,開發(fā)建設(shè)大學英語音視頻資源庫。美國著名語言教育家克拉申(Krashen)認為:只有當習得者接觸到“可理解的語言輸入”(comprehensiveinput),即略高于他現(xiàn)有語言技能水平的第二語言輸入,而他又能把注意力集中于對意義或?qū)π畔⒌睦斫舛皇菍π问降睦斫鈺r,才能產(chǎn)生習得,理想的語言輸入應(yīng)具備可理解性、有趣又相關(guān)、足夠的輸入量等特點。大學英語音視頻資源庫的建立正是為了最大限度地為我校學生提供英語語言學習材料和實踐機會,接觸真正的西方社會與文化,使他們能廣泛而有效地獲取英語語言知識、從而提高語言習得能力,真正實現(xiàn)“有效地輸出”。

2資源庫開發(fā)的重要性

2.1發(fā)展自主學習中心的需要

目前國內(nèi)各高校自主學習平臺主要由兩種路徑形成。一是從出版社直接購買的學習平臺,另一個則是各高校自建的資源庫。前者可以通過學校資金和人力的投入,短期內(nèi)則可以投入使用,形成效果。但校本音視頻資源庫的建設(shè)是一個長期的過程,需要課題組的持續(xù)努力。通過建設(shè)有特色的自主學習資源庫,才能為學生的自主學習創(chuàng)造更好的條件,適應(yīng)網(wǎng)絡(luò)化、個性化英語教學的需要。

2.2有利于提升英語學習興趣、提高學習效率

外語教學的最終目的是培養(yǎng)應(yīng)用語言進行有效交流的能力。英語音視頻資源輔助教學及應(yīng)用于自主學習,不僅有利于語言習得的發(fā)展,而且為學生提供大量運用語言的機會,實現(xiàn)跨文化交流,音視頻是了解西方文化的最好媒介。

2.3豐富教學方式,實現(xiàn)教學創(chuàng)新,提升教師的教育技術(shù)水平

互聯(lián)網(wǎng)+風潮要求我們教師既要更新教學觀念,又要在課堂教學模式、教學內(nèi)容上進行創(chuàng)新。建設(shè)英語音視頻資源庫過程中可以充分調(diào)動老師們的積極性,形成良好的教學創(chuàng)新氛圍;通過自學等途徑提升了現(xiàn)代教育技術(shù)水平,豐富了教學方式。

3建設(shè)大學英語音視頻資源庫的方法與途徑

資源庫的建設(shè)管理是一項持久而龐大的工程,需要課題組成員通過各種渠道搜集各類資源,進行分類整理,同時需要不斷提升現(xiàn)代教育技術(shù)水平。在學院領(lǐng)導(dǎo)及相關(guān)部門的大力支持下,贛南師范大學的英語音視頻資源庫已基本建設(shè)完成,并投入使用一年多,在師生中產(chǎn)生了非常好的反響。我們主要通過以下方法與途徑進行資源庫的開發(fā)與建設(shè):(1)數(shù)字化各類英語教材。各類教材是英語教學的主要教學資源,它們也是英語學習者的首選材料,具備較好的權(quán)威性及廣泛性。數(shù)字化英語教材,就是把各類英語教材附帶的光盤、磁帶轉(zhuǎn)換成能在計算機上保存的音視頻文件,存貯在服務(wù)器上,從而實現(xiàn)網(wǎng)絡(luò)化共享。在數(shù)字這些素材時,既要考慮到教材的完整性,也要充分考慮到學生自主學習時的易用性,根據(jù)用途及層次對聽力材料進行分層管理,文件命名均采用見名知義的命名方法,使師生在調(diào)用時簡單易懂,實現(xiàn)快捷訪問、高效利用。(2)自主開發(fā)點播系統(tǒng),入庫優(yōu)質(zhì)資源。視頻資源比音頻資源更加直觀、形象,是學生首選的學習素材。在我校現(xiàn)代外語教育技術(shù)應(yīng)用與研究中心的指導(dǎo)幫助下,我們自主設(shè)計開發(fā)了英語視頻點播系統(tǒng),內(nèi)容涵蓋:①各種英語視頻課程:如學校自建的精品視頻公開課和師生的英語教學競賽視頻,全球知名大學的視頻公開課。②流行英語學習課程:如“走遍美國”、“空中英語教室”等。③主流英語媒體節(jié)目,如中央電視臺英語頻道,ABC美國廣播公司,CNN廣播公司等節(jié)目源。④英語演講視頻:如CCTV杯英語風采大賽,TED演講集、經(jīng)典演講視頻等。⑤影視資源:我們搜集整理了各類影視經(jīng)典資源,包括奧斯卡歷年最佳影片、IMDB最佳影片top250等優(yōu)質(zhì)影視資源。從實際應(yīng)用情況來看,該資源是學生點擊率最高的版塊,可見其受歡迎程度。(3)購買適合教學與自主學習的音視頻資源目前教育資源市場上針對英語學習方面的資源庫是越來越多,為了與硬件設(shè)設(shè)相配套,完善我校英語網(wǎng)絡(luò)教學與自主學習環(huán)境,我校近些年加大了對軟件建設(shè)的投入,購買了一些重點資源庫,涵蓋英語學習、考試及出國留學等音視頻資源,主要包括外語自主學習資源庫、新東方多媒體學習庫、環(huán)球英語網(wǎng)絡(luò)、Fif外語學習資源庫和部分試用資源庫,極大地豐富了英語教學與自主學習資源,完善了英語網(wǎng)絡(luò)學習環(huán)境。(4)制作音視頻資源導(dǎo)航頁,從互聯(lián)網(wǎng)上下載相關(guān)打包資源?;ヂ?lián)網(wǎng)是英語學習、教學的寶藏,里面有非常豐富、完整的各類英語音視頻學習、教學資源等待我們?nèi)ネ诰蛘?,如喬丹NBA經(jīng)典比賽視頻合輯、經(jīng)典足球比賽欣賞、倫敦奧運會開幕式、老鷹樂隊澳大利亞告別演唱會等經(jīng)典高清英語資源,由于視頻格式和播放器的局限性,我們通過迅雷等下載工具直接打包下載到服務(wù)器上,然后再制作資源導(dǎo)航頁,讓學生通過下載到本地的方式進行欣賞,這樣既減輕了服務(wù)器的壓力,也使學生有更多時間去慢慢領(lǐng)會其中所包含的文化價值意義。

4資源庫的應(yīng)用

有了英語音視頻資源庫,教師可以直接調(diào)用資源庫中的教學資料進行課堂教學,有了英語音視頻資源庫和其它配套的學習系統(tǒng),教師可以根據(jù)不同專業(yè)學生特點,采取靈活多樣的教學,選擇與其專業(yè)相符的教學內(nèi)容,實行因材施教,把專業(yè)學習與英語學習有機結(jié)合起來,實現(xiàn)共贏?;谶@些豐富、完整的數(shù)字化資源,學生們可以根據(jù)自己興趣愛好和專業(yè)特點,在網(wǎng)絡(luò)型語音室或?qū)嬍以诰€自主學習,選擇合適的學習內(nèi)容,按照自己的進度安排學習,實現(xiàn)高效利用時間,最終使學生具備較強的自主學習能力,養(yǎng)成良好的自主學習習慣。

5結(jié)束語

通過教學實踐證明,有了基于本校實際的大學英語音視頻資源庫,給老師與學生帶來非常大的學習能動性。教師可以充分利用起網(wǎng)絡(luò)語音室的各項功能,進行教學改革創(chuàng)新,施行因生、因材施教,提高課堂教學效率,最大化地轉(zhuǎn)化學習效果。同時,基于校園網(wǎng)的學生在線自主學習,通過選擇與自己水平、興趣相當?shù)膶W習素材,真正實現(xiàn)自己學習、主動學習,充分激發(fā)了學生的求知欲望,打破課堂局限,通過網(wǎng)絡(luò)互動有利地建設(shè)了第二課堂,使學習延伸到課外生活中去,從而使學生真正具備較強的自主學習能力,實現(xiàn)培養(yǎng)目標。但我們的研究也存在一些需要改進的問題。比如隨著智能手機在學生中的普及,需要我們將資源進行轉(zhuǎn)換,以適應(yīng)安卓、蘋果手機上的使用,這對我們的技術(shù)提出了新的挑戰(zhàn);另外,老師和學生才是資源的真正使用者,對如何選材、使用效果及如何改進等方面最有發(fā)言權(quán),課題組應(yīng)及時與他們進行溝通、問卷調(diào)查,進一步完善資源庫,實現(xiàn)更廣的社會傳播價值。

作者:賴藝 劉忠平 單位:贛南師范大學外國語學院

參考文獻

[2]零月秀,李波.大學英語聽說教學數(shù)字化資源庫的建設(shè)[J].通化師范學院學報,2004.25(1):106-108.

[3]莫錦國.大學英語自主式教學資源庫開發(fā)初探[J].外語電化教學,2005(102):36-39.

[4]教育部高等教育司.大學英語課程教學要求[M].北京:清華大學出版社,2007:18-25.

[5]門斌.大學英語多媒體網(wǎng)絡(luò)教學資源庫的建設(shè)[J].電化教育研究,2009(7):68-72.

[6]甘玲玲.大學英語自主學習:校本網(wǎng)絡(luò)資源庫的開發(fā)[J].百色學院學報,2009.22(6):104-107.

[7]海霞.新疆大學英語教學網(wǎng)絡(luò)資源庫建設(shè)調(diào)查報告[J].新疆廣播電視大學學報,2011(3):54-56.

[8]郭繼榮,戴煒棟.大學生英語自主學習評價實證研究[J].外語界,2011(6):79-87:

語音視頻范文第2篇

關(guān)鍵詞:H323;MCU;混合器;視頻會議系統(tǒng)

1 引言

會議是人類社會政治經(jīng)濟生活中不可缺少的一部分。隨著ITU制定出第一個H.320標準和H.323標準,視頻會議獲得了長足的發(fā)展。視頻會議作為一種先進的多媒體通信手段,已逐步被眾多政府部門和跨地區(qū)企事業(yè)單位所接受和采用[1]。然而相對于Internet有限的帶寬,圖像通信所需要的帶寬太大,視頻會議無法承載原始視頻的多路通信。因此,多點控制單元(MCU)對于音視頻的多路通信起著重要的作用[2]。文章主要針對視頻會議中的主要部分MCU,研究分析H.323視頻會議中如何利用有限的帶寬實現(xiàn)音視頻的混合于傳輸。

2 H323協(xié)議簡介

H.323協(xié)議是ITU第15研究組SG-15于1996年通過的在不保證服務(wù)質(zhì)量(QoS)的分組交換網(wǎng)絡(luò)(PBN:Packet based networks)上傳遞信息的多媒體通信協(xié)議。從整體上來說,H.323是一個框架性協(xié)議,它涉及到終端設(shè)備、視頻、音頻和數(shù)據(jù)傳輸、通信控制、網(wǎng)絡(luò)接口方面的內(nèi)容,還包括了組成多點會議的多點控制單元(MCU)、多點控制器(MC)、多點處理器(MP)、網(wǎng)關(guān)以及關(guān)守等。H.323為基于網(wǎng)絡(luò)的通信系統(tǒng)定義了四個主要的組件:終端(Terminal)、網(wǎng)關(guān)(Gateway)、網(wǎng)守(Gatekeeper)、多點控制單元(MCU)。所有終端都必須支持語音通信,視頻和數(shù)據(jù)通信可選.H.323規(guī)定了不同的音頻、視頻或數(shù)據(jù)終端協(xié)同工作所需的操作模式[3]。H.323終端的組成中。在發(fā)送端,從輸入設(shè)備獲取的視頻和音頻信號,經(jīng)編碼器壓縮編碼后,按照協(xié)議規(guī)定的格式打包,通過網(wǎng)絡(luò)發(fā)送出去.在接收端,來自網(wǎng)絡(luò)的數(shù)據(jù)包首先被解包,獲得的視頻、音頻壓縮數(shù)據(jù)經(jīng)解碼后送入輸出設(shè)備,用戶數(shù)據(jù)和控制數(shù)據(jù)也得到了相應(yīng)的處理。

3 混合器的功能分析

在視頻會議過程中,每個終端以點對點方式在控制信道上與MCU信令通信,并在用戶數(shù)據(jù)包協(xié)議(UDP:User Datagram Protocol)信道上與之進行音頻,視頻和數(shù)據(jù)通信。在此過程中,MCU融合了多點控制器(MC)和多點處理器(MP)兩個功能。MCU可以使用分布式多點音頻和集中式多點視頻。在此模式中,MCU對音視頻的操作是不同的,例如當音頻信號來到時,MCP將之從所屬音頻通道直接拷貝到其他每個會議成員的音頻通道中;而當視頻信號來到時,MCU先將其存入緩存,等所有成員的幀數(shù)據(jù)全部存入緩存后,分別發(fā)送至每個會議終端,從而達到視頻混合的目的[6]。

3.1 MCU對視頻的標識

在對視頻的轉(zhuǎn)發(fā)過程中對視頻的標識顯得特別重要。當多路視頻組合為一路發(fā)送往各終端時,需要將各視頻與終端聯(lián)系起來,從而使每個終端都能清楚它們的對應(yīng)關(guān)系。另外為了滿足視頻會議中各成員之間的單獨交互,在終端得到會議成員列表也是必不可少的。

3.2 MCU對多會議室的支持

當MCU中包含多個會議室時,情況有所復(fù)雜。我們?yōu)槊恳粋€會議室分配一個“房間”(room);由于不在同一會議室,不同房間中的成員不能接收到其他房間中音視頻信息,這樣MCU就需要為每個房間增加一個標識,以便區(qū)別各會議室的音視頻信息。

4 混合器的設(shè)計實現(xiàn)

Openh323封裝了視頻會議通信的整個過程,利用它暴露的接口類,我們可以很容易地實現(xiàn)MCU的混合器功能。

4.1 H323終端

H323EndPoint類管理H323終端(endpoint),一個終端可能有0個或者多個偵聽線程來負責關(guān)于呼入的連接,終端也可能有0或者多個通過MakeCall()初始化呼出的連接,一旦一個連接存在,該連接就被此類的實例管理。此類最主要的內(nèi)容是包含終端應(yīng)用程序的能力,也就是終端可以處理的協(xié)議和多媒體數(shù)字信號編解碼器(codec),大多數(shù)應(yīng)用程序通常都會創(chuàng)建一個H323Endpoint類的派生類,也會創(chuàng)建一個H323Connection類的派生類并重載CreateConnection()函數(shù)。

4.2 音頻轉(zhuǎn)發(fā)的實現(xiàn)

音頻信號的轉(zhuǎn)發(fā)有些復(fù)雜,因為它涉及到混頻,當有終端發(fā)送的音頻到達MCU時,MCU執(zhí)行以下操作:

(1) 調(diào)用相應(yīng)的解碼函數(shù)對通道中接受的音頻信號進行解碼,并將解碼后的音頻信號寫入IncomingAudio channel通道。

(2) IncomingAudio函數(shù)將數(shù)據(jù)發(fā)送至緩存,并將數(shù)據(jù)從緩存依次復(fù)制到其他所有通道的緩存中。這樣,MCU完成了對接收音頻的處理.,隨后MCU開始發(fā)送音頻信號。

(3) 依次對所有與MCU連接的終端調(diào)用OutgoingAudio函數(shù)將所有連接(不包括即將發(fā)送音頻的連接)緩存中的音頻信號進行混頻。

(4) 音頻編碼器將混頻后的信號經(jīng)由與MCU連接的通道發(fā)送往各終端,完成音頻的轉(zhuǎn)發(fā)功能。

4.3 視頻轉(zhuǎn)發(fā)的實現(xiàn)

由于不用進行過多處理,視頻信號的轉(zhuǎn)發(fā)相對簡單。MCU中有一個緩存VideoBuffer專門用于視頻轉(zhuǎn)發(fā),當視頻信號到達時,視頻解碼器(Video Codec)對之進行解碼并將結(jié)果視頻寫入IncomingVideo channel通道,MCU調(diào)用WriteVideo將解碼后的視頻幀寫入緩存的指定位置(例如左上角);一旦所有視頻幀都被寫入緩存, MCU便調(diào)用ReadVideo將緩存中的組合視頻幀(一般是分塊)寫入各通道,最后由編碼器編碼后發(fā)送至各終端。另外,由于視頻大小的限制,原始視頻需要經(jīng)過抽樣。

4.4 會議成員列表

Openh323中沒有給出相關(guān)的功能接口,因此這項功能需要我們來擴展,終端要從MCU得到會議成員列表,即通過H323EndPoint向每個終端發(fā)送包含成員列表的文本消息。當有終端與MCU建立連接時,MCU會將成員列表以字符串的形式封裝,并發(fā)送至每個終端;終端相應(yīng)地增加消息處理函數(shù)來接收MCU方發(fā)送來的成員列表,并在界面中顯示。

4.5 對多會議室的支持

當用戶與MCU建立連接時,需要為連接指定一個會議標識(默認為room1)。這樣,在MCU中便存在多個房間,當會議開始后,每一個終端的音視頻到達MCU后都會根據(jù)其終端所屬的會議標識進行分別處理。例如,當room1房間的成員有視頻信號到達MCU時,MCU先判斷其所屬會議標識,這里是room1;然后便將其視頻按前面所述的方法存入room1的視頻緩存中。最后,當room1所有成員的視頻信號都到達后,再將其緩存中的視頻數(shù)據(jù)分別發(fā)送至room1的各成員終端,以完成room1會議的視頻轉(zhuǎn)發(fā)過程。對于其他的房間也執(zhí)行相同的處理,而且各房間之間的音視頻轉(zhuǎn)發(fā)互不干擾。

5 測試實驗與結(jié)果分析

為了驗證文章提出的設(shè)計方案的可行性和有效性,基于Openh323 Library實現(xiàn)了一套H323視頻會議的原型系統(tǒng)。以下,對我們實現(xiàn)的視頻會議原型系統(tǒng)進行測試實驗。

本實驗的運行環(huán)境為實驗室局域網(wǎng),測試對象為基于IP的網(wǎng)絡(luò)視頻會議系統(tǒng),實驗設(shè)備包括:局域網(wǎng),多臺電腦(帶視頻頭和音頻采集器)。

實驗結(jié)果:當用戶Terminal1加入會議室room1時,MCU會立即刷新room1的成員列表,并將Terminal1的音視頻進行處理后連同其他音視頻按照既定方法發(fā)送至各終端;Terminal1的加入對room2中的各成員終端沒有任何影響,而且音視頻的轉(zhuǎn)發(fā)照常進行。

6 結(jié)束語

H323協(xié)議使基于IP的網(wǎng)絡(luò)視頻會議成為可能,但帶寬的限制使多媒體的傳輸成為會議的瓶頸。文章介紹了一種在Openh323基礎(chǔ)上,通過MCU將音視頻混合并轉(zhuǎn)發(fā)的方法,使音視頻能夠在基于IP的網(wǎng)絡(luò)上正常傳輸,成功實現(xiàn)了多媒體會議的視頻控制與傳輸。但仍有問題尚待進一步解決,由于MCU方將視頻混合后發(fā)送網(wǎng)各端點,這就造成了視頻質(zhì)量的下降,因此有必要對視頻進行插值放大或幀速率上轉(zhuǎn)換等后處理。

參考文獻

[1]Runsheng Wang, Xiaorui Hu. “VoIP Development in China,” Computer[J].2004,37(9): 30~37.

[2]黃東軍, 陳松喬. 基于源根組播的多點視頻會議系統(tǒng)模型及其實現(xiàn)[J].電子學報, 2005,33(1): 47~51.

[3]張明德,王永東. 視頻會議系統(tǒng)原理與應(yīng)用[M]. 北京:希望電子出版社,1999.

[4]BUR GOODE.Voice Over Internet Protocol (VoIP). Proceedings of The IEEE[J],2002, 90(9): 1495~1517

[5]蔡勝, 蘇應(yīng)飚. VoIP 網(wǎng)關(guān)中H323 協(xié)議棧的實現(xiàn). 計算機與現(xiàn)代化 [J],2002,3: 19~21

語音視頻范文第3篇

    在本系統(tǒng)中總部指揮中心的核心配置是1臺音視頻綜合通信主機,該主機集語音處理單元、視頻處理單元和調(diào)度控制單元構(gòu)成的綜合型交換處理設(shè)備,即音視頻綜合通信主機;同時,該主機的語音處理單元、視頻處理單元及控制單元均支持擴展功能,是完全能夠滿足總部指揮中心對多個下級語音調(diào)度和內(nèi)部通信的要求??偛恐笓]中心配置可供調(diào)度人員切換和控制的調(diào)度席,供指揮人員指揮的指揮席;調(diào)度席為指揮席提供中心到各分站調(diào)度語音、視頻(包括切換及控制)的鏈路建立。同時,調(diào)度席可以電話、語音的形式,接收指揮席的指令要求,對前端的記者進行語音調(diào)度和視頻監(jiān)視。指揮席與前方分站建立通信連接后,實現(xiàn)雙向語音通話,雙向視頻,以及對前端監(jiān)控單元進行控制。整個系統(tǒng)支持多分站之間的連接,建立連接后中心、多個分站之間可以實現(xiàn)電話會議、視頻會議等業(yè)務(wù),便于中心調(diào)度指令。

    現(xiàn)場指揮中心設(shè)計

    現(xiàn)場指揮中心的核心配置是1臺音視頻綜合通信分機,該分機集語音處理單元、視頻處理單元和調(diào)度控制單元構(gòu)成的綜合型交換處理設(shè)備,即音視頻綜合通信分機;同時,該分機的語音處理單元、視頻處理單元及控制單元均支持擴展功能,完全能夠滿足現(xiàn)場指揮中心對前端信息的接入和調(diào)度?,F(xiàn)場指揮中心音視頻綜合通信分機針對本地現(xiàn)場提供多路有、無線通話接口;并通過地面的IP網(wǎng)絡(luò)或衛(wèi)星鏈路實現(xiàn)與總部指揮中心、其他分現(xiàn)場指揮中心的通話互聯(lián)。現(xiàn)場指揮中心音視頻綜合通信分機可通過有、無線調(diào)度系統(tǒng)對現(xiàn)場采集人員提供多路連接方式,每個無線終端設(shè)備之間可實現(xiàn)點對點通信,并支持功能擴展;同時,總部指揮中心通過現(xiàn)場指揮中心中繼后可直接對前端記者進行語音調(diào)度,所有操作均實時完成。音視頻綜合通信分機提供多路串口控制,通過地面IP網(wǎng)絡(luò)或衛(wèi)星鏈路將控制信號傳到調(diào)度終端,總部指揮中心就可直接對前端設(shè)備進行遠程控制。音視頻綜合通信分機提供多路視頻的處理能力,可為現(xiàn)場指揮中心提供現(xiàn)場多路視頻接入,至少提供1路的視頻編解碼能力,為總部指揮中心提供現(xiàn)場的視頻監(jiān)控,同時,支持視頻接入的擴展。

語音視頻范文第4篇

關(guān)鍵詞:流媒體;音頻;實時傳輸;自適應(yīng);嵌入式;Android

中圖分類號:TP309文獻標識碼:A文章編號:1009-3044(2011)04-0890-05

Audio Real-time Adaptive Transmission Technology Based on Android

SONG Ran-xin1,2, XIE Wei-bo1,2

(1.College of Computer Science & Technology, Huaqiao University, Quanzhou 362021,China; 2.Laboratory of Embedded Technology, Xiamen Software Park, Huaqiao University, Xiamen 361008, China)

Abstract: With the development of the wireless and the mobile networks, the streaming media technology on embedded platform has drawn the attention of most developers. The transmission of the high-quality audio as an important branch is also developing, however, most applications are on the PC platform. With the continuous development of the embedded platform, streaming media applications are also progressing towards embedded systems, This article will present a solution on high-quality real-time adaptive transmission based on Android.

Key words: streaming media; audio; real-time transmission; adaptive; embedded; android

近年來,移動網(wǎng)絡(luò)的發(fā)展已進入一個空前活躍的時期,尤其是2009年,國內(nèi)3G網(wǎng)絡(luò)的開放大大加速了無線網(wǎng)絡(luò)的應(yīng)用和普及。隨著網(wǎng)絡(luò)的迅速發(fā)展,網(wǎng)絡(luò)中的實時的高質(zhì)量音頻(Audio)傳輸已日益引起各方的關(guān)注,尤其是在嵌入式平臺上。本文將就Android平臺下如何實現(xiàn)高質(zhì)量音頻的實時自適應(yīng)傳輸提出一種解決方案。

1 Android平臺簡介

1.1 Android 簡介

Android是Google于2007年11月05日宣布的基于Linux平臺的開源手機操作系統(tǒng)的名稱,該平臺由操作系統(tǒng)、中間件、用戶界面和應(yīng)用軟件組成。它采用軟件堆層(Software Stack,又名軟件疊層)的架構(gòu),主要分為三部分。底層以Linux內(nèi)核工作為基礎(chǔ),由C語言開發(fā),只提供基本功能;中間層包括函數(shù)庫Library和虛擬機Virtual Machine,由C++開發(fā)。最上層是各種應(yīng)用軟件,包括通話程序,短信程序等,應(yīng)用軟件則由各公司自行開發(fā),以Java作為編寫程序的主要語言。目前,Android已經(jīng)進入了自己預(yù)定的和諧的發(fā)展軌道,逐漸地發(fā)展壯大起來,成為了移動及嵌入式平臺中一顆璀璨的新星。

1.2 Android 平臺應(yīng)用程序架構(gòu)

圖1為Android 平臺應(yīng)用程序架構(gòu)。

Linux Kernel: 是Linux Kernel在移動平臺的一個移植,它隱藏了硬件、網(wǎng)絡(luò)等相關(guān)的細節(jié),為上層提供了一個相對純潔的統(tǒng)一接口。

Libraries: 是一些核心的和擴展的類庫,它們都是原生的C++實現(xiàn)。在這一層,包含眾多開源項目,如SQLite、WebKit、OpenGL 等。如果,該層類庫需要被上層函數(shù)調(diào)用,就必須要通過JNI導(dǎo)出相應(yīng)的接口函數(shù),否則就只能在層次內(nèi)部之間調(diào)用。

在此層中,還有為上層Java程序服務(wù)的運行庫。Dalvik虛擬機,是Android的Java虛擬機,之所以不采用 J2ME的虛擬機,一方面是因為J2ME的設(shè)計是為了低端機器而優(yōu)化,而Dalvik則是為了高端一些的機器進行優(yōu)化,提供更好的性能。另一方面,從商業(yè)角度來看,必須繞開J2ME虛擬機,Android才能徹底開源。

Application Framework:框架層,這里包含所有開發(fā)所用的SDK類庫,另外還有一些未公開接口的類庫和實現(xiàn),它們是整個Android平臺核心機制的體現(xiàn)。

Application: 應(yīng)用層,系統(tǒng)的一些應(yīng)用和第三方開發(fā)的所有應(yīng)用都是位于這個層次上。

大多數(shù)情況下,開發(fā)者可以依靠框架層提供的SDK使用Java語言進行應(yīng)用程序設(shè)計,但是在某些特殊情況下,比如性能優(yōu)化或者平臺移植,這種編程方式便不能滿足開發(fā)需要。除了SDK,Android還提供了NDK(Native Development Kit),NDK的出現(xiàn)意味著,最上面應(yīng)用層的內(nèi)容,可以穿越Java部署的框架層,直接和底層暴露出來的,或者自行開發(fā)的C++庫直接對話,當然在這些庫中需要包含JNI(Java Native Interface)的接口。

那么Android為什么不直接用C++進行應(yīng)用開發(fā)呢?純C++應(yīng)用,在Android中是無法被接受的。因為在Android中,大量的核心機制部署在框架層,它們都是用Java實現(xiàn)的,比如控件庫,Activity的調(diào)度之類的,沒了界面,就沒了調(diào)度,因此,C++的程序作為類庫比較合適。

1.3 JNI技術(shù)

Java本地接口(Java Native Interface (JNI))允許運行在Java虛擬機(Java Virtual Machine (JVM))上的代碼調(diào)用本地程序和類庫,或者被它們調(diào)用,這些程序和類庫可以是其它語言編寫的,比如C、C++或者匯編語言。

當一個程序無法完全使用Java編寫時,開發(fā)者可以通過JNI來編寫本地方法,比如標準Java類庫并不支持的依賴于平臺的特色或者程序庫。 JNI還可以用于修改現(xiàn)有的使用其它語言編寫的程序,使它們可以通過Java編寫的程序來訪問。

很多基本類庫都依賴JNI來為開發(fā)者和用戶提供服務(wù),比如文件的輸入/輸出和音頻功能。在基本類庫中包含的對于性能和平臺敏感的API可以允許 所有的Java程序以安全和平臺無關(guān)的方式來使用這些功能。

2 程序的構(gòu)架設(shè)計與具體實現(xiàn)

2.1 需要解決的問題

2.1.1 程序的基本框架

考慮到Android平臺的構(gòu)架特點,程序?qū)⒉捎肑ava和嵌入式C混合編程,由于Java語言的虛擬機機制,使其在多媒體編解碼運算時無法充分發(fā)揮硬件性能,導(dǎo)致運算性能偏低,所以在程序的編解碼部分將通過嵌入式C編寫庫來實現(xiàn)。程序包含網(wǎng)絡(luò)傳輸在內(nèi)的其他部分將有Java語言完成。最后通過JNI(Java Native Interface)將C庫與Java進行銜接。

2.1.2 音頻質(zhì)量與編碼算法

為確保音頻的高質(zhì)量傳輸,在編碼的選擇上,傳統(tǒng)的語音音頻采用 Speech Code 如(G.711, G.723, G.726 , G.729, ILBC, QCELP)這些編碼格式雖然小巧,但是采樣率大多都只有8KHz,處理后對音頻損失較大,為實現(xiàn)高質(zhì)量的語音,可采用 Audio Code 如 (AAC, OGG, MP3, WMA, SBC 等)。同時,為了方便針對嵌入式平臺運行的調(diào)整和優(yōu)化,在選擇編碼的時候盡量選擇開源項目。

在經(jīng)過各種測試后,程序決定采用MP3算法作為音頻的編解碼。測試過的MP3編解碼庫主要有以下幾個:

編碼庫:

Shine:是一款專為ARM優(yōu)化的MP3定點編碼庫,在保證音質(zhì)可以接受的情況下盡量簡化MP3的編碼算法。故它的編碼運算速度較快,音質(zhì)從測試看來也在可接受的范圍內(nèi)。

BladeEnc:一款跨平臺的免費MP3編碼庫,遵循LGPL,速度快,但不支持定點運算。

Comprec:是Shine針對某移動設(shè)備的優(yōu)化修改版,編碼更加簡化速度也更快。

解碼庫:

MAD(libmad):是一個開源的高精度 MPEG 音頻解碼庫,支持 MPEG-1(Layer I, Layer II 和 LayerIII(MP3)。libmad 提供 24-bit 的 PCM 輸出,完全是定點計算。未經(jīng)優(yōu)化的libmad音質(zhì)還原很好,但是解碼速度稍慢。因此需針對平臺優(yōu)化后使用。

Real: 為32位定點處理器提供高性能的MP3解碼支持(僅支持MP3,對MP2和MP1不支持),并且為多種處理器和平臺提供了優(yōu)化配置方案,如(ARM,x86等)。

FFmpeg:開源的跨平臺音視頻編解碼庫,為多種平臺提供配置編譯支持,但由于支持格式眾多,需自行分離及編譯優(yōu)化。

根據(jù)硬件設(shè)備及開發(fā)環(huán)境,可按需要選取合適的編解碼庫。

2.1.3 傳輸?shù)膶崟r性

多媒體流的實時傳輸對帶寬和延遲比較敏感,要求有一定服務(wù)質(zhì)量保證(QoS),傳統(tǒng)的互聯(lián)協(xié)議只能提供盡力而為的服務(wù),對于具有實時性、連續(xù)性、交互性的流媒體服務(wù)已無法滿足需要。因此,擬采用RTP(Real-time Transpot Protocol)實時流媒體傳輸協(xié)議進行音頻的傳輸。RTP報文用來做實時傳輸時,可以靈活改變速率、防止亂序。同時輔以RTCP(Real-time Transpot Control Protocol)協(xié)議,其報文在傳輸過程中可以為RTP數(shù)據(jù)提供網(wǎng)絡(luò)狀況和服務(wù)質(zhì)量的反饋。

利用RTP/RTCP的反饋結(jié)果,設(shè)計合適的網(wǎng)絡(luò)自適應(yīng)算法計算網(wǎng)絡(luò)的擁塞程度。

由于Android本身并沒有提供對RTP協(xié)議的支持,因此,Java中實現(xiàn)RTP協(xié)議傳輸可以使用開源的Jlibrtp庫,Jlibrtp為Java編寫的sourceforge開源項目,提供了RTP數(shù)據(jù)包定義,RTP傳輸,及RTCP反饋等符合RTP協(xié)議傳輸規(guī)范的大多功能。

2.1.4 自適應(yīng)傳輸原理與算法

考慮到嵌入式設(shè)備的性能,網(wǎng)絡(luò)擁塞算法不應(yīng)過于復(fù)雜,可將網(wǎng)絡(luò)擁塞算法和音頻編碼算法相結(jié)合,動態(tài)調(diào)整音頻的編碼和發(fā)送,已達到較為流暢的媒體流,下面為自適應(yīng)算法原理及簡單描述:

由于RTP/RTCP是運行在UDP協(xié)議之上的,而UDP是不可靠的協(xié)議,它沒有TCP的流量控制等能力,因此常用的算法是基于已丟失報文的評估算法。

數(shù)據(jù)包丟失率是監(jiān)控器估計網(wǎng)絡(luò)信道狀況的指標,但不能直接利用丟失率判斷網(wǎng)絡(luò)信道狀況并據(jù)此調(diào)整音頻的發(fā)送,因為會使發(fā)送數(shù)據(jù)變動得過于頻繁,也使接收端的音頻產(chǎn)生波動,質(zhì)量不穩(wěn)定。在利用數(shù)據(jù)包丟失率估計網(wǎng)絡(luò)信道狀況之前,先對其作平滑處理。[2]

根據(jù)平滑后的數(shù)據(jù)包丟失率與事先確定的閾值的關(guān)系,可以判斷網(wǎng)絡(luò)上的負載情況,依此將網(wǎng)絡(luò)狀態(tài)分為若干類:

假定暫分為三類(輕載,滿載和阻塞),網(wǎng)絡(luò)狀態(tài)的分類算法:設(shè)定2 個閾值k1、k2(測試給定值),平滑后RTP 數(shù)據(jù)包的丟失率為t(n)。音頻編碼算法為A(i),其中i為調(diào)整編碼的系數(shù),i越大,壓縮比越高,對應(yīng)于三種狀態(tài)的i值分別為i1 < i2 < i3。(i值由實驗統(tǒng)計得出),D為網(wǎng)絡(luò)常規(guī)傳輸速率。

1) 當t(n) < k1 時,視為輕載;

2) 當t(n) > k1 且t(n) < k2 時,視為滿載;

3) 當t(n) > k2 時,視為阻塞。

則自適應(yīng)算法描述為:

if ( t(n) < k1 )

A(i1) ;AIMD(D);

else if ( k1 < t(n) < k2 )

A(i2) ;D;

else

A(i3) ;AIMD(D);

算法中D的增減由 AIMD(加性增乘性減)的算法或其優(yōu)化算法控制。其算法表述為:

其中a,b均為常數(shù), a>=0; 0

2.2 程序整體架構(gòu)與實現(xiàn)

程序主要包含三個模塊,程序界面,網(wǎng)絡(luò)收發(fā)模塊及音頻編解碼模塊。如圖2。

2.2.1 開發(fā)環(huán)境

開發(fā)平臺:Windows 7企業(yè)版;開發(fā)工具:Eclipse + ADT;開發(fā)環(huán)境:Java 2 SDK ver.1.6,Android SDK v2.1,Android NDK v1.6,Cygwin(其中Cygwin和NDK用來構(gòu)建C/C++的交叉編譯環(huán)境)

2.2.2 程序的設(shè)計與實現(xiàn)

1)MP3編解碼庫的優(yōu)化:

嵌入式平臺MP3編碼庫算法的優(yōu)化根據(jù)平臺和需求不同,需要做的調(diào)整也不一樣,一般主要都包含以下幾個方面:

① 浮點運算改為定點運算:嵌入式平臺多數(shù)CPU對浮點運算的支持較差或者不支持,因此,如果選擇的編碼是浮點的,需要對此部分進行定點改寫,否則運算效率將非常低

② 對常用的運算函數(shù)用ARM匯編語言重寫:對部分底層常用函數(shù)如加減乘除基本運算,用匯編語言改寫可提高程序執(zhí)行效率。

③ 添加JNI接口,使其可以在Java中調(diào)用:自行編寫的C或C++庫在執(zhí)行時位于系統(tǒng)庫中,不能直接使用,因此在編寫優(yōu)化完庫后,需對其添加JNI接口,以供應(yīng)用程序穿過框架層直接進行調(diào)用。

C庫中的JNI接口設(shè)計與調(diào)用:

在Android 的NDK中提供了完善的JNI支持,使得在應(yīng)用程序中,可以使用Java方便的調(diào)用Linux的基礎(chǔ)C庫,但是首先要對C庫進行改寫,提供JNI的接入支持。

C庫中添加JNI接口:

JNIEXPORT jint JNICALL

Java_com_codec_mp3dec_Mp3dec_write(JNIEnv* env,jobject thiz,

jobject inputStream,

jint len)

{unsigned char* input= (unsigned char*)

((*env)->GetDirectBufferAddress(env,inputStream));

memcpy(readBuf + bytesLeft,input,len);

bytesLeft += len;

fillSize = READBUF_SIZE - bytesLeft;

return fillSize;}

Java中通過JNI調(diào)用:

static

{System.loadLibrary("mp3dec");}

while(getFillSize()>1024) {

buffOut=buffList.take();

nRead = buffOut.length;

inputBuffer.clear();

inputBuffer.put(buffOut);

write(inputBuffer,nRead);} /* 調(diào)用上面C庫中定義的write方法*/

2)程序?qū)崿F(xiàn)的關(guān)鍵類與部分代碼示例

圖3 程序模塊結(jié)構(gòu)圖

AudioRecord和AudioTrack類是Android獲取和播放音頻流的重要類,放置在android.media包中。該包中還包含 MediaRecorder和MediaPlayer類,這幾個類都可實現(xiàn)音頻的錄制與回放,不同的是AudioRecord和AudioTrack類在獲取和播放音頻數(shù)據(jù)流時無需通過文件保存和文件讀取,可以動態(tài)地直接獲取和播放音頻流,減少了媒體對于磁盤的讀寫,因此非常適合用來實時處理音頻數(shù)據(jù)流。下面是創(chuàng)建兩個類的對象的具體代碼:

AudioRecord類:

audio_in_buff_size = AudioRecord.getMinBufferSize(8000,

AudioFormat.CHANNEL_CONFIGURATION_MONO,

AudioFormat.ENCODING_PCM_16BIT);

audio_in_rec = new AudioRecord(MediaRecorder.AudioSource.MIC,8000,

AudioFormat.CHANNEL_CONFIGURATION_MONO,

AudioFormat.ENCODING_PCM_16BIT,

audio_in_buff_size) ;

AudioTrack類:

audio_out_buff_size = android.media.AudioTrack.getMinBufferSize(8000,

AudioFormat.CHANNEL_CONFIGURATION_MONO,

AudioFormat.ENCODING_PCM_16BIT);

audio_out_trk = new AudioTrack(AudioManager.STREAM_MUSIC, 8000,

AudioFormat.CHANNEL_CONFIGURATION_MONO,

AudioFormat.ENCODING_PCM_16BIT,

audio_out_buf_size,AudioTrack.MODE_STREAM);

音頻回放與RTP傳輸模塊示例:

public LiveMP3Play(int rtpPort, int rtcpPort){

try {

rtpSocket = new DatagramSocket(rtpPort);

rtcpSocket = new DatagramSocket(rtcpPort);

} catch (Exception e) {

System.out.println(e.toString());}

rtpSession = new RTPSession(rtpSocket, rtcpSocket);

rtpSession.naivePktReception(true);

rtpSession.RTPSessionRegister(this,null, null);

Participant p = new Participant("10.0.2.2", 16386, 16387);

rtpSession.addParticipant(p); }; /*用jlibrtp中的類創(chuàng)建RTP連接*/

public void run() {

if ( aAudioTrack02 != null ) {

aAudioTrack02.release();

aAudioTrack02 = null;}

int iMinBufSize = AudioTrack.getMinBufferSize(44100,

AudioFormat.CHANNEL_CONFIGURATION_STEREO,

AudioFormat.ENCODING_PCM_16BIT);

if ( iMinBufSize == AudioTrack.ERROR_BAD_VALUE||

iMinBufSize == AudioTrack.ERROR ) {

return;}/*構(gòu)建AudioTrack對象*/

try {

aAudioTrack02 = new AudioTrack(AudioManager.STREAM_MUSIC, 44100,AudioFormat.CHANNEL_CONFIGURATION_STEREO, AudioFormat.ENCODING_PCM_16BIT, iMinBufSize,AudioTrack.MODE_STREAM);

} catch (IllegalArgumentException iae) {

myTextView.setText("new AudioTrack Exceeption:" + iae.toString());

iae.printStackTrace();}

try {

while(!stopLive) {

Message msPackCount = new Message();

msPackCount.what = Mp3dec.GUI_NOTIFIER_PACK; Mp3dec.this.myMessageHandler.sendMessage(msPackCount);

if(pktCount>20)

{ int nRead = 0,rec = 0;

while(getFillSize()>1024) {

buffOut=buffList.take();

nRead = buffOut.length;

inputBuffer.clear();

inputBuffer.put(buffOut);

write(inputBuffer,nRead);} /*將MP3數(shù)據(jù)寫入解碼緩沖區(qū)*/

rec = read(outputBuffer); /*解碼MP3音頻并輸出到緩沖區(qū)*/

outputBuffer.flip();

outputBuffer.limit(rec);

outputBuffer.get(outputByte);

outputBuffer.clear();

aAudioTrack02.write(outputByte, 0, outputByte.length);

aAudioTrack02.play();}}} /*回放解碼后的音頻數(shù)據(jù)*/

catch (InterruptedException e) {

System.out.println("Error Taked !!!!");

e.printStackTrace();}

rtpSession.endSession();

rtpSocket.close();

rtcpSocket.close();}};

3 結(jié)束語

Android系統(tǒng)以其自由的開放性及良好的應(yīng)用程序構(gòu)架正穩(wěn)健而迅速地發(fā)展著,短短幾年時間中運行其上的應(yīng)用程序已達十萬以上,然而在流媒體實時傳輸方面的應(yīng)用程序卻不多見,隨著移動網(wǎng)絡(luò)的不斷發(fā)展,流媒體在手機及平板電腦等移動設(shè)備上的應(yīng)用前景顯而易見,本文針對Android 平臺的特點,提出了一種高質(zhì)量音頻的實時傳輸?shù)慕鉀Q方案,旨在拋磚引玉,共同完善和豐富Android 這個開放性平臺上的軟件應(yīng)用。

參考文獻:

[1] 葛艷紅,李文鋒,劉旭光.基于RTP流媒體實時傳輸?shù)腏ava實現(xiàn)[J].計算機與現(xiàn)代化,2007,2:59-61.

語音視頻范文第5篇

【關(guān)鍵詞】 SIP 融合通信客戶端 軟件體系架構(gòu)

一、引言

目前,現(xiàn)代電力企業(yè)員工日常辦公活動中,溝通交流越來越重要。而隨著技術(shù)的發(fā)展,利用先進的技術(shù)打破當前通信手段(如電話、短信、電子郵件和多媒體會議等)中以設(shè)備和網(wǎng)絡(luò)為中心的限制,實現(xiàn)只要通過最常使用的通信工具和應(yīng)用,就可以便捷高效地與上級、同事、客戶及合作伙伴保持聯(lián)系,這是人們一直以來期望的目標,而移動性和統(tǒng)一通信的結(jié)合可以達成這個目標。本文將結(jié)合移動設(shè)備自有的特性,討論統(tǒng)一通信移動終端的融合技術(shù)。

二、融合通信移動終端設(shè)計架構(gòu)

2.1 融合通信移動終端概述

融合通信通常是指把計算機技術(shù)與傳統(tǒng)通信技術(shù)融合一體的新通信模式,融合計算機網(wǎng)絡(luò)與傳統(tǒng)通信網(wǎng)絡(luò)在一個網(wǎng)絡(luò)平臺上,實現(xiàn)電話、傳真、數(shù)據(jù)傳輸、音視頻會議、呼叫中心、即時通信等眾多應(yīng)用服務(wù)。隨著移動互聯(lián)的快速發(fā)展,特別是是近幾年iPhone、Android等智能手機的快速普及,越來越多的移動設(shè)備開始進入企業(yè)IT環(huán)境當中。

2.2 融合通信移動終端面臨的問題

融合通信移動終端設(shè)計的目標是要實現(xiàn)在任何地方、利用任何設(shè)備,與任何通信實體進行跨平臺、跨地域、跨設(shè)備的透明通信,且能夠保證網(wǎng)絡(luò)安全通暢,這使得客戶端設(shè)計面臨以下的主要問題:(1)統(tǒng)一通信平臺的多樣化,如市場上擁有成熟統(tǒng)一通信產(chǎn)品的就有思科、華為、中興、西門子、微軟、IBM等等,如何保證客戶端都能夠和這些廠商產(chǎn)品兼容;(2)終端系統(tǒng)種類和運行環(huán)境多樣化,如市面常見的就有iOS、Android和Windows Phone等;(3)移動網(wǎng)絡(luò)多樣性和復(fù)雜性,而企業(yè)出于安全性考慮,使得移動客戶端接入需要考慮的問題變得復(fù)雜化;(4)業(yè)務(wù)功能的可靠性。如語音、視頻等實時性業(yè)務(wù)對IP承載網(wǎng)的網(wǎng)絡(luò)質(zhì)量要求很高,而移動設(shè)備的網(wǎng)絡(luò)一般都沒有達到這么高的帶寬,如何保證音頻/視頻業(yè)務(wù)質(zhì)量。

2.3 融合通信移動終端總體架構(gòu)

2.3.1 功能架構(gòu)

結(jié)合融合通信的功能要求和所面臨的問題,我們設(shè)計的功能框架圖如圖1所示:

移動終端:融合通信平臺的用戶側(cè)最終呈現(xiàn)的應(yīng)用。該客戶端安裝在企業(yè)工作人員或者顧客的手機上。

管道側(cè):用來為平臺側(cè)與終端側(cè)傳輸數(shù)據(jù)。

服務(wù)端:平臺側(cè)依據(jù)SOA框架搭建,包括框架管理界面、邏輯處理層、接口層和數(shù)據(jù)層。平臺側(cè)為終端上的服務(wù)能力提供支持,其服務(wù)能力能夠利用接口進行添加和擴展。

2.3.2 設(shè)計體系架構(gòu)

為了解決移動終端開發(fā)所面臨的問題,我們提出了基于中間件的開發(fā)模式,即把所有除實時音視頻業(yè)務(wù)外的所有其他業(yè)務(wù)統(tǒng)一封裝整合(如基于SOAP協(xié)議的Webservice),而對于實時性的音視頻業(yè)務(wù),采用通用的SIP協(xié)議和RTP/RTSP協(xié)議結(jié)合的方式處理。結(jié)構(gòu)圖如圖 2所示:

實現(xiàn)原理:(1)所有非實時音視頻業(yè)務(wù)全部通過中間件適配形成統(tǒng)一的WebService接口提供給客戶端;這樣可解決多種統(tǒng)一通信平臺接入、多種業(yè)務(wù)系統(tǒng)接入的問題;所有協(xié)議使用Https協(xié)議進行傳輸,內(nèi)容通過3DES加密和GZIP壓縮,保證傳輸?shù)陌踩?;?)而所有實時音視頻業(yè)務(wù)則通過SIP會話進行控制,具體協(xié)商通過SDP實現(xiàn),所有業(yè)務(wù)添加對Qos質(zhì)量控制支持,確保業(yè)務(wù)功能的可靠性;(3)實時音視頻業(yè)務(wù)會話協(xié)商完成后,音視頻數(shù)據(jù)流通過RTP/SRTP協(xié)議直接與統(tǒng)一通信對應(yīng)的音視頻服務(wù)器進行對接,確保通用性。

三、移動終端統(tǒng)一通信融合的關(guān)鍵技術(shù)

3.1 SIP協(xié)議

SIP由IETF RFC定義,用于多方多媒體通信。按照IETFRFC2543的定義,SIP是一個基于文本的應(yīng)用層控制協(xié)議,獨立于底層傳輸協(xié)議TCP/UDP/SCTP,用于建立、修改和終止IP網(wǎng)上的雙方或多方多媒體會話。SIP協(xié)議借鑒了HTTP、SMTP等協(xié)議,支持、重定向及登記定位用戶等功能,支持用戶移動。通過與RTP/RTCP、SDP、RTSP等協(xié)議及DNS配合,SIP支持語音、視頻、數(shù)據(jù)、E-mail、狀態(tài)、IM、聊天、游戲等。SIP協(xié)議可在TCP或UDP之上傳送,由于SIP本身具有握手機制,可首選UDP。

3.2 視頻編解碼

因為視頻內(nèi)容傳輸需要消耗大量的網(wǎng)絡(luò)帶寬資源,采用合適的視頻編碼技術(shù)也是系統(tǒng)的關(guān)鍵。根據(jù)已有的編碼標準來看,能夠適合碼流在1M到2M,同時又能保證高清的圖像質(zhì)量,比較好的標準有MPEG-4、 H.264、VC-1和AVS幾種。H.264屬于下一代編碼技術(shù)標準,是所有壓縮技術(shù)里面壓縮率最高的,在支持實時標清電視節(jié)目時只需要1.5Mbit/s帶寬、點播電視只需要1.2Mbit/s帶寬,其畫質(zhì)就可以達到DVD效果,這顯然有利于未來通信與娛樂、有線與無線的業(yè)務(wù)開展。因此,從技術(shù)的演進來看, H.264視頻編碼標準被認為是下一階段的必然選擇。因此,本系統(tǒng)優(yōu)先實現(xiàn)編碼H.264。

3.3 業(yè)務(wù)質(zhì)量控制

語音、視頻等實時性業(yè)務(wù)對IP承載網(wǎng)的網(wǎng)絡(luò)質(zhì)量要求很高,為了保障語音、視頻業(yè)務(wù)QoS質(zhì)量,在局域網(wǎng)中將語音、視頻業(yè)務(wù)與OA等信息數(shù)據(jù)業(yè)務(wù)采取不同的VLAN進行隔離,要求在交換機上作配置相應(yīng)QoS策略,實現(xiàn)對語音、視頻等實時業(yè)務(wù)媒體流優(yōu)先轉(zhuǎn)發(fā)。

四、結(jié)果展示

通過以上的技術(shù)研究,搭建起一臺中間件服務(wù)器,作為與即時消息服務(wù)器、UC服務(wù)器和信息系統(tǒng)服務(wù)器進行數(shù)據(jù)傳輸?shù)闹虚g平臺,使用這些服務(wù)器提供的開發(fā)開發(fā)接口開發(fā)所需要的功能。

同時,在蘋果iOS系統(tǒng)上開發(fā)完成了“融合通信移動客戶端”,主要功能包括以下功能:(1)移動應(yīng)用門戶:融合門戶、OA等信息系統(tǒng),形成統(tǒng)一的移動應(yīng)用門戶;(2)SSO單點登錄:為所有移動化信息系統(tǒng)提供統(tǒng)一的認證功能;(3)通訊功能:個人通訊錄、企業(yè)通訊錄、群組、短信群發(fā)、智能搜索、快速定位、點擊撥號、一號通、語音會議等業(yè)務(wù)功能;(4)即時消息:融合騰訊通即時消息功能,可與騰訊通PC版進行互通。