python接入rtsp视频,并实时框人员 推送给rtsp流媒体服务器
使用OpenCV读取RTSP视频流并进行人员检测(这里仍以人脸检测为例,您可以替换为其他人员检测模型)。要实现Python显示RTSP视频流、实时框出画面中的人员,并将带有框的视频以RTSP格式推送给流媒体服务器,您需要使用支持RTSP推流的库或工具。请注意,实际使用时需要根据您的流媒体服务器设置调整`rtsp_output ...问答超时,请稍后再试。进程,将处理后的视频帧通过管道(pipe)传
·
要实现Python显示RTSP视频流、实时框出画面中的人员,并将带有框的视频以RTSP格式推送给流媒体服务器,您需要使用支持RTSP推流的库或工具。由于OpenCV的cv2.VideoWriter
并不直接支持RTSP推流,这里推荐使用ffmpeg
作为中介,结合ffmpeg-python
库来实现这一功能。以下是详细的步骤:
步骤一:获取RTSP视频流并进行人员检测
使用OpenCV读取RTSP视频流并进行人员检测(这里仍以人脸检测为例,您可以替换为其他人员检测模型)。同时,为了将检测结果叠加到原视频流上,我们需要保留原视频帧和检测到的人员框信息:
python
import cv2
rtsp_url = 'rtsp://your_rtsp_stream_url'
cap = cv2.VideoCapture(rtsp_url)
if not cap.isOpened():
print("Could not open RTSP stream.")
exit(-1)
face_cascade = cv2.CascadeClassifier(cv2.data.haarcascades + 'haarcascade_frontalface_default.xml')
while True:
ret, frame = cap.read()
if not ret:
print("Failed to read frame.")
break
gray = cv2.cvtColor(frame, cv2.COLOR_BGR2GRAY)
faces = face_cascade.detectMultiScale(gray, scaleFactor=1.1, minNeighbors=5, minSize=(30, 30))
# 存储检测到的人员框信息
person_boxes = [(x, y, x+w, y+h) for (x, y, w, h) in faces]
# 在原帧上绘制矩形框
for box in person_boxes:
cv2.rectangle(frame, (box[0], box[1]), (box[2], box[3]), (0, 255, 0), 2)
# 显示带有框的帧(可选,仅用于本地调试)
cv2.imshow('RTSP Video Stream with Person Detection', frame)
if cv2.waitKey(1) & 0xFF == ord('q'):
break
步骤二:使用ffmpeg将处理后的视频帧推送到RTSP服务器
安装ffmpeg
和ffmpeg-python
库:
bash
pip install ffmpeg-python
接下来,使用ffmpeg-python
库创建一个ffmpeg
进程,将处理后的视频帧通过管道(pipe)传递给ffmpeg
进行编码和RTSP推流:
python
import subprocess as sp
import numpy as np
from ffmpeg import (
Input,
Output,
pipe,
)
# RTSP推流地址
rtsp_output_url = 'rtsp://your_rtmp_server_address/stream_key'
# 创建一个空的Input对象作为输入源,使用管道接收数据
input_pipe = Input(pipe='pipe:', format='rawvideo', pix_fmt='bgr24', s='{}x{}'.format(frame_width, frame_height))
# 创建RTSP输出对象
output = Output(rtsp_output_url, vcodec='libx264', pix_fmt='yuv420p', r=fps)
# 启动ffmpeg进程,连接输入管道和输出RTSP地址
ffmpeg_process = (
input_pipe
.global_args('-hide_banner')
.global_args('-loglevel', 'warning')
.output(output)
.run_async(pipe_stdin=True)
)
while True:
ret, frame = cap.read()
if not ret:
print("Failed to read frame.")
break
gray = cv2.cvtColor(frame, cv2.COLOR_BGR2GRAY)
faces = face_cascade.detectMultiScale(gray, scaleFactor=1.1, minNeighbors=5, minSize=(30, 30))
person_boxes = [(x, y, x+w, y+h) for (x, y, w, h) in faces]
for box in person_boxes:
cv2.rectangle(frame, (box[0], box[1]), (box[2], box[3]), (0, 255, 0), 2)
# 将处理后的帧送入ffmpeg进程
ffmpeg_process.stdin.write(frame.tobytes())
# 显示带有框的帧(可选,仅用于本地调试)
cv2.imshow('RTSP Video Stream with Person Detection', frame)
if cv2.waitKey(1) & 0xFF == ord('q'):
break
# 关闭输入管道,结束ffmpeg进程
ffmpeg_process.stdin.close()
ffmpeg_process.wait()
在这个示例中:
- 使用
ffmpeg-python
创建一个空的Input
对象,指定格式为rawvideo
,像素格式为bgr24
,分辨率与原视频一致。 - 创建一个
Output
对象,指定RTSP推流地址、编码器为libx264
、像素格式为yuv420p
,帧率为原视频帧率。 - 启动
ffmpeg
进程,连接输入管道和输出RTSP地址。 - 在主循环中,读取视频帧,进行人员检测,绘制矩形框,然后将处理后的帧以字节形式写入
ffmpeg
进程的stdin。 - 本地调试时可选择显示带有框的帧,按'q'键退出。
请注意,实际使用时需要根据您的流媒体服务器设置调整`rtsp_output ...问答超时,请稍后再试
更多推荐
已为社区贡献70条内容
所有评论(0)