Kinect SDK 1.7:将关节/光标坐标映射到屏幕分辨率

本文关键字:坐标 光标 映射 分辨率 屏幕 SDK Kinect | 更新日期: 2023-09-27 18:18:41

不幸的是,我仍然在努力使用新的Kinect SDK 1.7。这个问题实际上与"通过反射c#查找事件"处于相同的上下文中:Click事件(然而,对于理解这个问题不是必需的)。

我的问题很简单:如果我用右手控制光标("新的"Kinect手部指针),并且它位于屏幕的左上角,我希望它返回坐标(0,0)。如果光标在右下角,坐标应该分别为(1920,1080)当前屏幕分辨率。

新SDK为每个HandPointer(最多4个)提供了所谓的PhysicalInteractionZones (PIZ),它与HandPointer一起移动,并且具有从(左上)0.0到(右下)1.0的值。这基本上意味着,我不能用它们来映射屏幕,因为它们是根据用户在Kinect前的移动动态变化的。至少,我没能找到一个可行的方法。

然后我通过骷髅流尝试了一下:右手的坐标被跟踪,一旦一个点击手势被注册,点击事件就会在这个特定的点触发。我用下面的代码试了试:

private void ksensor_SkeletonFrameReady(object sender, SkeletonFrameReadyEventArgs e)
    {
        using (SkeletonFrame frame = e.OpenSkeletonFrame())
        {
            if (frame != null)
            {
                frame.CopySkeletonDataTo(this._FrameSkeletons);
                var accelerometerReading = 
                    Settings.Instance.ksensor.AccelerometerGetCurrentReading();
                ProcessFrame(frame);
                _InteractionStream.ProcessSkeleton(_FrameSkeletons,
                    accelerometerReading, frame.Timestamp);
            }
        }
    }
private void ProcessFrame(ReplaySkeletonFrame frame)
    {
        foreach (var skeleton in frame.Skeletons)
        {
            if (skeleton.TrackingState != SkeletonTrackingState.Tracked)
                continue;
            foreach (Joint joint in skeleton.Joints)
            {
                if (joint.TrackingState != JointTrackingState.Tracked)
                    continue;
                if (joint.JointType == JointType.HandRight)
                {
                    _SwipeGestureDetectorRight.Add(joint.Position,
                        Settings.Instance.ksensor);
                    _RightHand = GetPosition(joint);
                    myTextBox.Text = _RightHand.ToString();
                }
                if (joint.JointType == JointType.HandLeft)
                {
                    _SwipeGestureDetectorLeft.Add(joint.Position, 
                        Settings.Instance.ksensor);
                    _LeftHand = GetPosition(joint);
                }
            }
        }
    }

辅助GetPosition方法定义如下:

private Point GetPosition(Joint joint)
    {
        DepthImagePoint point = 
            Settings.Instance.ksensor.CoordinateMapper.MapSkeletonPointToDepthPoint(joint.Position, Settings.Instance.ksensor.DepthStream.Format);
        point.X *= 
            (int)Settings.Instance.mainWindow.ActualWidth / Settings.Instance.ksensor.DepthStream.FrameWidth;
        point.Y *= 
            (int)Settings.Instance.mainWindow.ActualHeight / Settings.Instance.ksensor.DepthStream.FrameHeight;
        return new Point(point.X, point.Y);
    }

一旦检测到点击手势,就调用一个简单的invokeClick(_RightHand)并执行点击。点击本身工作得很好(再次感谢回答这个问题的人)。到目前为止,不工作的是坐标的映射,因为我只能从

获得坐标

x轴:900 - 1500(从左到右)y轴:300 - 740(从上到下)

这些坐标甚至随着每次我试图到达屏幕上的一个特定点100或200像素而变化,例如,屏幕的左手边一开始是900,但当我把手移出Kinect的范围(在我背后或桌子下面)并向左手边重复移动时,我突然得到了700或附近的坐标。我甚至尝试了Coding4Fun.Kinect.Wpf (ScaleTo(1920,1080)分别为ScaleTo(SystemParameters.PrimaryScreenWidth,SystemParameters.PrimaryScreenHight))的ScaleTo方法,但这只是给了我疯狂的坐标x:300000, y:-100000或240000……我已经没有主意了,所以我希望有人能给我一个,甚至是一个解决方案。

很抱歉,我写了这么长的文字,但我已经尽可能具体了。提前感谢任何帮助!

Kinect SDK 1.7:将关节/光标坐标映射到屏幕分辨率

InteractionHandPointer类包含手的屏幕坐标。我从SDK演示中改编了这段代码;有很多困难要克服!:

this.sensor.DepthFrameReady += this.Sensor_DepthFrameReady;
this.interaction = new InteractionStream(sensor, new InteractionClient());
this.interaction.InteractionFrameReady += interaction_InteractionFrameReady;
...
private void Sensor_DepthFrameReady(object sender, DepthImageFrameReadyEventArgs e)
{
    using (var frame = e.OpenDepthImageFrame())
    {
        if (frame != null)
        {
            try
            {
                interaction.ProcessDepth(frame.GetRawPixelData(), frame.Timestamp);
            }
            catch (InvalidOperationException) { }
        }
    }
}
private void interaction_InteractionFrameReady(object sender, InteractionFrameReadyEventArgs e)
{
    using (var frame = e.OpenInteractionFrame())
    {
        if (frame != null)
        {
            if ((interactionData == null) || 
                (interactionData.Length !== InteractionStream.FrameUserInfoArrayLength))
            {
                interactionData = new UserInfo[InteractionStream.FrameUserInfoArrayLength];
            }
            frame.CopyInteractionDataTo(interactionData);
            foreach (var ui in interactionData)
            {
                foreach (var hp in ui.HandPointers)
                {
                    // Get screen coordinates
                    var screenX = hp.X * DisplayWidth;
                    var screenY = hp.Y * DisplayHeight;
                    // You can also access IsGripped, IsPressed etc.
                }
            }
        }
    }
}
public class InteractionClient: IInteractionClient
{
    public InteractionInfo GetInteractionInfoAtLocation(
        int skeletonTrackingId,
        InteractionHandType handType,
        double x, double y)
    {
        return new InteractionInfo();
    }
}

我的一个同事试图将手坐标映射到屏幕坐标。通过一些简单的数学计算,他成功地做到了;但结果并不理想,因为少量像素(手部区域)将被映射到大量像素,这将导致光标非常不准确,当你把它举在空中时,你的手会自然地晃动,或者导致联合识别不准确。

代替这种方法,我将推荐笔记本电脑触控板所做的事情:如果你在触控板上非常缓慢地移动你的手,光标只会移动一个很小的范围。但如果你的手指移动得非常快,光标移动的距离就会更大。举个例子,如果手的线缓慢移动了100px,你可以在屏幕上移动光标100px,但如果手的线快速移动了100px,你可以移动光标300px。

解决这个问题的另一种方法是使用在kinect sdk工具包v1.8名为"Skeleton Basics - WPF"的示例中提供的代码,然后你已经设置了一个函数来接收一个Skeleton点并返回一个点,如下所示:

    private Point SkeletonPointToScreen(SkeletonPoint skelpoint)
    {
        // Convert point to depth space.  
        // We are not using depth directly, but we do want the points in our 640x480 output resolution.
        DepthImagePoint depthPoint = this.sensor.CoordinateMapper.MapSkeletonPointToDepthPoint(skelpoint, DepthImageFormat.Resolution640x480Fps30);
        return new Point(depthPoint.X, depthPoint.Y);
    }