Rumah >pembangunan bahagian belakang >Golang >Golang dan FFmpeg: Bagaimana untuk melaksanakan pemintasan dan penskalaan bingkai video
Golang dan FFmpeg: Bagaimana untuk melaksanakan pemintasan dan penskalaan bingkai video, contoh kod khusus diperlukan
Ikhtisar:
Dengan peningkatan keperluan pemprosesan video, orang ramai semakin cenderung untuk menggunakan Golang sebagai bahasa pengaturcaraan untuk pemprosesan video. Sebagai rangka kerja pemprosesan multimedia sumber terbuka yang paling popular dalam industri, FFmpeg menyediakan fungsi yang kaya untuk memproses data audio dan video. Artikel ini akan memperkenalkan cara menggunakan Golang untuk memanggil FFmpeg untuk melaksanakan fungsi pemintasan dan penskalaan bingkai video serta memberikan contoh kod yang sepadan.
Prasyarat:
Sebelum anda bermula, anda perlu memastikan FFmpeg dipasang pada mesin anda dan pembolehubah persekitaran yang betul dikonfigurasikan.
Pemintasan bingkai video:
Mula-mula, mari kita lihat cara melaksanakan pemintasan bingkai video. Dalam FFmpeg, anda boleh menggunakan modul "avformat" untuk membaca fail video dan modul "avcodec" untuk menyahkod bingkai video. Berikut ialah kod contoh mudah:
package main import ( "fmt" "log" "github.com/giorgisio/goav/avcodec" "github.com/giorgisio/goav/avformat" ) func main() { // 打开视频文件 formatContext := avformat.AvformatAllocContext() if err := avformat.AvformatOpenInput(&formatContext, "/path/to/video.mp4", nil, nil); err != nil { log.Fatal("无法打开视频文件:", err) } defer avformat.AvformatFreeContext(formatContext) // 查找视频流 if err := formatContext.AvformatFindStreamInfo(nil); err != nil { log.Fatal("无法查找视频流:", err) } var videoStreamIndex int32 = -1 for i, stream := range formatContext.Streams() { if stream.CodecParameters().CodecType() == avformat.AVMEDIA_TYPE_VIDEO { videoStreamIndex = int32(i) break } } if videoStreamIndex == -1 { log.Fatal("找不到视频流") } // 找到视频解码器 videoDecoder := avcodec.AvcodecFindDecoder(avcodec.CodecId(formatContext.Streams()[videoStreamIndex].CodecParameters().CodecId())) if videoDecoder == nil { log.Fatal("无法找到视频解码器") } // 打开解码器上下文 videoCodecContext := avcodec.AvcodecAllocContext3(videoDecoder) if err := avcodec.AvcodecParametersToContext(videoCodecContext, formatContext.Streams()[videoStreamIndex].CodecParameters()); err != nil { log.Fatal("无法打开解码器上下文:", err) } if err := videoCodecContext.AvcodecOpen2(videoDecoder, nil); err != nil { log.Fatal("无法打开解码器:", err) } defer avcodec.AvcodecFreeContext(videoCodecContext) // 读取视频帧 packet := avcodec.AvPacketAlloc() defer avcodec.AvPacketFree(packet) for formatContext.AvReadFrame(packet) >= 0 { if packet.StreamIndex() == videoStreamIndex { frame := avutil.AvFrameAlloc() defer avutil.AvFrameFree(frame) if err := videoCodecContext.AvcodecSendPacket(packet); err == nil { for videoCodecContext.AvcodecReceiveFrame(frame) == nil { // 处理视频帧 fmt.Printf("视频帧:%d ", frame.Pts()) } } } } }
Dalam kod di atas, kami mula-mula menggunakan avformat.AvformatAllocContext()
untuk memperuntukkan objek konteks format dan menggunakan avformat.AvformatOpenInput() kod >Fail video dibuka. Kemudian, kami menggunakan <code>avformat.AvformatFindStreamInfo()
untuk mencari strim video, dan kemudian menggunakan avformat.AVMEDIA_TYPE_VIDEO
untuk menentukan sama ada ia adalah strim video. avformat.AvformatAllocContext()
来分配一个格式上下文对象,并使用avformat.AvformatOpenInput()
打开了一个视频文件。然后,我们使用avformat.AvformatFindStreamInfo()
找到了视频流,再使用avformat.AVMEDIA_TYPE_VIDEO
来判断是否为视频流。
接下来,我们使用avcodec.AvcodecFindDecoder()
来查找适合的解码器,并使用avcodec.AvcodecParametersToContext()
和avcodec.AvcodecOpen2()
打开了解码器上下文。
最后,我们使用formatContext.AvReadFrame()
来读取视频帧,并在videoCodecContext.AvcodecReceiveFrame()
中处理每一帧。在这个示例中,我们只是简单地打印每一帧的PTS值。
视频缩放:
接下来,我们来看一下如何实现视频帧的缩放。在FFmpeg中,可以使用"swscale"模块来进行视频帧的缩放。以下是一个简单的示例代码:
package main import ( "fmt" "image" "log" "os" "github.com/giorgisio/goav/avcodec" "github.com/giorgisio/goav/avformat" "github.com/giorgisio/goav/swscale" "github.com/nfnt/resize" ) func main() { // 打开视频文件 formatContext := avformat.AvformatAllocContext() if err := avformat.AvformatOpenInput(&formatContext, "/path/to/video.mp4", nil, nil); err != nil { log.Fatal("无法打开视频文件:", err) } defer avformat.AvformatFreeContext(formatContext) // 查找视频流 if err := formatContext.AvformatFindStreamInfo(nil); err != nil { log.Fatal("无法查找视频流:", err) } var videoStreamIndex int32 = -1 for i, stream := range formatContext.Streams() { if stream.CodecParameters().CodecType() == avformat.AVMEDIA_TYPE_VIDEO { videoStreamIndex = int32(i) break } } if videoStreamIndex == -1 { log.Fatal("找不到视频流") } // 找到视频解码器 videoDecoder := avcodec.AvcodecFindDecoder(avcodec.CodecId(formatContext.Streams()[videoStreamIndex].CodecParameters().CodecId())) if videoDecoder == nil { log.Fatal("无法找到视频解码器") } // 打开解码器上下文 videoCodecContext := avcodec.AvcodecAllocContext3(videoDecoder) if err := avcodec.AvcodecParametersToContext(videoCodecContext, formatContext.Streams()[videoStreamIndex].CodecParameters()); err != nil { log.Fatal("无法打开解码器上下文:", err) } if err := videoCodecContext.AvcodecOpen2(videoDecoder, nil); err != nil { log.Fatal("无法打开解码器:", err) } defer avcodec.AvcodecFreeContext(videoCodecContext) // 创建视频缩放上下文 swscaleContext := swscale.SwsGetContext( videoCodecContext.Width(), videoCodecContext.Height(), videoCodecContext.PixFmt(), videoCodecContext.Width()/2, videoCodecContext.Height()/2, avcodec.AV_PIX_FMT_RGB24, 0, nil, nil, nil, ) defer swscale.SwsFreeContext(swscaleContext) // 创建输出视频文件 outfile, err := os.Create("/path/to/output.mp4") if err != nil { log.Fatal("无法创建输出视频文件:", err) } defer outfile.Close() // 创建视频编码器 videoEncoder := avcodec.AvcodecFindEncoder(avcodec.AV_CODEC_ID_MPEG4) if videoEncoder == nil { log.Fatal("无法找到视频编码器") } // 创建编码器上下文 videoCodecCtx := avcodec.AvcodecAllocContext3(videoEncoder) videoCodecCtx.SetBitRate(400000) videoCodecCtx.SetWidth(videoCodecContext.Width() / 2) videoCodecCtx.SetHeight(videoCodecContext.Height() / 2) videoCodecCtx.SetTimeBase(avformat.AVR{Num: 1, Den: 25}) videoCodecCtx.SetPixFmt(avcodec.AV_PIX_FMT_YUV420P) // 打开编码器上下文 if err := videoCodecCtx.AvcodecOpen2(videoEncoder, nil); err != nil { log.Fatal("无法打开编码器上下文:", err) } defer avcodec.AvcodecFreeContext(videoCodecCtx) // 写入视频文件头 formatContext.SetOutput(outfile) if err := formatContext.AvformatWriteHeader(nil); err != nil { log.Fatal("无法写入视频文件头:", err) } defer formatContext.AvformatFreeOutputContext() // 准备编码帧和缩放帧 encodeFrame := avutil.AvFrameAlloc() defer avutil.AvFrameFree(encodeFrame) encodeFrame.SetWidth(videoCodecCtx.Width()) encodeFrame.SetHeight(videoCodecCtx.Height()) encodeFrame.SetFormat(int32(videoCodecCtx.PixFmt())) frameSize := avcodec.AvpixelAvImageGetBufferSize(avcodec.AV_PIX_FMT_RGB24, videoCodecCtx.Width()/2, videoCodecCtx.Height()/2, 1) encodeFrameBuffer := avutil.AvMalloc(frameSize) defer avutil.AvFree(encodeFrameBuffer) encodeFrame.AvpixelAvImageFillArrays(encodeFrameBuffer, 1) for formatContext.AvReadFrame(packet) >= 0 { if packet.StreamIndex() == videoStreamIndex { frame := avutil.AvFrameAlloc() defer avutil.AvFrameFree(frame) if err := videoCodecContext.AvcodecSendPacket(packet); err != nil { log.Fatal("无法发送视频包:", err) } for videoCodecContext.AvcodecReceiveFrame(frame) == nil { // 缩放视频帧 swscale.SwsScale( swscaleContext, frame.Data(), frame.Linesize(), 0, frame.Height(), encodeFrame.Data(), encodeFrame.Linesize(), ) // 编码视频帧 encodeFrame.SetPts(frame.Pts()) packet := avcodec.AvPacketAlloc() if err := avcodec.AvcodecSendFrame(videoCodecCtx, encodeFrame); err != nil { log.Fatal("无法发送编码帧:", err) } if err := avcodec.AvcodecReceivePacket(videoCodecCtx, packet); err != nil { log.Fatal("无法接收编码包:", err) } defer avcodec.AvPacketFree(packet) // 写入编码后的帧到文件 if err := formatContext.AvWriteFrame(packet); err != nil { log.Fatal("无法写入帧到文件:", err) } } } } // 写入视频文件尾 if err := formatContext.AvWriteTrailer(); err != nil { log.Fatal("无法写入视频文件尾:", err) } }
以上代码中,我们创建了一个视频缩放上下文swscaleContext
,它的输入是原始视频帧的大小,输出是缩放后的视频帧的大小。我们还创建了一个新的编码器上下文videoCodecCtx
,它的大小为原始视频帧大小的一半,并将其设置为YUV420P像素格式。
在读取到每一帧视频后,我们使用swscale.SwsScale()
avcodec.AvcodecFindDecoder()
untuk mencari penyahkod yang sesuai dan menggunakan avcodec.AvcodecParametersToContext()
dan avcodec.AvcodecOpen2() membuka konteks penyahkod. <p><br>Akhir sekali, kami menggunakan <code>formatContext.AvReadFrame()
untuk membaca bingkai video dan memproses setiap bingkai dalam videoCodecContext.AvcodecReceiveFrame()
. Dalam contoh ini, kami hanya mencetak nilai PTS untuk setiap bingkai. 🎜Penskalaan video: 🎜Seterusnya, mari kita lihat cara untuk mencapai penskalaan bingkai video. Dalam FFmpeg, anda boleh menggunakan modul "swscale" untuk menskalakan bingkai video. Berikut ialah kod sampel ringkas: 🎜rrreee🎜Dalam kod di atas, kami mencipta konteks penskalaan video swscaleContext
, yang inputnya ialah saiz bingkai video asal, dan outputnya ialah saiz bingkai video berskala. Kami juga mencipta konteks pengekod baharu videoCodecCtx
iaitu separuh saiz bingkai video asal dan menetapkannya kepada format piksel YUV420P. 🎜🎜Selepas membaca setiap bingkai video, kami menggunakan fungsi swscale.SwsScale()
untuk menskalakannya kepada saiz yang ditentukan dan menghantar bingkai video berskala kepada pengekod untuk pengekodan. Kami kemudian menulis bingkai yang dikodkan ke fail video output. 🎜🎜Ringkasan: 🎜Gabungan Golang dan FFmpeg menyediakan pembangun dengan alat pemprosesan video yang berkuasa. Dalam artikel ini, kami memperkenalkan cara menggunakan Golang untuk memanggil FFmpeg untuk melaksanakan fungsi pemintasan dan penskalaan bingkai video serta memberikan contoh kod yang sepadan. Semoga contoh ini akan membantu anda memahami dengan lebih baik cara menggunakan Golang dan FFmpeg untuk memproses data video. 🎜Atas ialah kandungan terperinci Golang dan FFmpeg: Bagaimana untuk melaksanakan pemintasan dan penskalaan bingkai video. Untuk maklumat lanjut, sila ikut artikel berkaitan lain di laman web China PHP!