使用Mecury人型机器人搭建VR遥操作控制平台!

概述

VR遥操作机械臂是一种将虚拟现实技术与机械臂控制相结合的系统,使用户可以通过虚拟现实设备操控和交互实际的机械臂。这种技术可以应用于多个领域,包括远程操作、培训、危险环境中的工作等。

双臂人形机器人是一种模拟人体上半身结构,包括头部、躯干和双臂的机器人。这种机器人设计的目标是模仿人类的上半身动作和功能,以执行各种任务,从而在虚拟现实(VR)领域中有广泛的应用。

合虚拟现实和人型机器人可以为许多领域带来创新和改进,提高用户体验,扩展应用领域,促进技术的发展。这种结合使得虚拟和现实之间的交界更加模糊,为未来创造了令人兴奋的可能性。

硬件介绍

Mecury X1

这是一款名为“Mercury X1”的人形机器臂,由Elephant Robotics 精心研发。17个自由度(DOF),使其具有极高的灵活性和适应性。工作电压为24V,配备了一个9英寸的量子点触控屏,既现代又高效。Mercury X1最大工作半径为450毫米,最大负载能力为1公斤,净重8公斤,非常适合轻量级的操作任务。

它的重复定位精度高达±0.05毫米,意味着它在进行精密作业时非常可靠。机器人的寿命预计为5000小时,表明了其出色的耐用性。主控制单元采用了Jetson Xavier,辅助控制则由ESP32*1负责,这样的配置保证了其强大的数据处理能力和稳定的控制性能。还包含了碳纤维外壳材料,使得机器臂不仅坚固耐用,同时也轻便。它装备了Orbbec Deeyea 3D摄像头和一个具有4个麦克风的线性阵列声音模块,能够进行高效的视觉和声音处理。通信方面,支持WIFI、Ethernet、蓝牙、USB端口和RS485,兼容ROS1/ROS2,这意味着它能够轻松集成到各种智能制造和研究环境中。

VR  Oculus Quest 2

是由Facebook的子公司Oculus VR开发的一款虚拟现实(VR)头戴设备。Quest 2有开发者模式,它允许开发者直接在设备上安装和测试自己开发的应用。主要是由游戏引擎unity和unreal engine平台支持。

VR控制机器人项目

软件架构和交互设计

VR遥操作首先要解决的问题就是操作者和机器人的通信问题,在这方面我选择的是基于HTTP协议的通信,服务器选择Flask。虽然选择Python可能会对性能产生不利影响,但是因为Mercury机器人提供的Python SDK——pymycobot是Python的库,因此Python作为开发语言是最方便与机器人集成的选择,非常适合验证项目的可行性。

VR端我们选择了Unity3D,丰富的社区资源使得这个项目成为可能。

服务模型为经典的C/S结构,VR端通过访问特定的URL向机器人发送不同的命令,再通过服务器转发到pymycobot,执行实际的动作。

另一方面是交互方面的设计我们采用相对移动的方式,用户按下手柄的A键标志着移动开始,松开标志着移动结束。

下面是VR遥控操作的通信流程:

实时视频流

在克服VR遥操作技术难题的过程中,确保获取低延迟的视频流一直是关键挑战之一。我们采用了一项创新性的解决方案,通过利用NVIDIA Jetson Xavier平台所提供的Accelerated GStreamer插件,成功实现了GPU加速的视频编解码,旨在在保障实时性的同时,最大程度地优化带宽利用率。

Jetson Xavier平台的Accelerated GStreamer插件是一种强大的工具,通过充分利用GPU的计算能力,对视频数据进行加速处理。这一创新性的技术手段不仅提高了视频编解码的效率,同时在大幅度减少延迟的同时,优化了网络带宽的利用效率。

Accelerated GStreamer是NVIDIA为其Jetson平台提供的一组GStreamer插件,旨在通过使用GPU(图形处理单元)加速多媒体处理任务,提高性能并降低延迟。这一套插件专为Jetson平台设计,充分利用了其强大的GPU资源,适用于视频编解码、图像处理、深度学习推理等多媒体应用。

Accelerated GStreamer — Jetson Linux Developer Guide documentation

实现过程

首先,下载编译并编译GStreamer官方提供的rtsp server源代码https://github.com/GStreamer/gst-rtsp-server/blob/1.14.5/examples/test-launch.c

编译好后会有一个test-launch的文件

通过GStreamer命令构造推流管线,这里测试采用的是


```bash
nvarguscamerasrc sensor-id=0 ! video/x-raw(memory:NVMM), format=NV12, width=3264, height=2464, framerate=21/1 ! nvv4l2h264enc insert-sps-pps=true ! h264parse ! rtph264pay name=pay0 pt=96
```

`提示:! 用于分隔不同的 GStreamer 元素`

nvarguscamerasrc sensor-id=0:

nvarguscamerasrc是 NVIDIA 提供的用于处理 Argus 相机的 GStreamer 插件。

sensor-id=0 指定使用 ID 为 0 的相机传感器。在多摄像头系统中,可以选择不同的相机传感器。

video/x-raw(memory:NVMM), format=NV12, width=3264, height=2464, framerate=21/1:

video/x-raw(memory:NVMM) 表示输出的是 NVIDIA 内存管理的原始视频数据。

format=NV12 指定了视频帧的格式为 NV12,这是一种 YUV 格式。

width=3264, height=2464 指定了视频帧的宽度和高度。

framerate=21/1 指定了视频的帧率为 21 帧每秒。

nvv4l2h264enc insert-sps-pps=true:

nvv4l2h264enc 是 NVIDIA 提供的 H.264 编码插件。

insert-sps-pps=true 表示在输出流中插入 SPS(序列参数集)和 PPS(图像参数集),这对于 H.264 视频流的解码是必需的。

h264parse:

h264parse 插件用于解析 H.264 数据流。

rtph264pay name=pay0 pt=96:

rtph264pay 插件用于封装 H.264 数据流为 RTP 包。

name=pay0 为该 RTP Payloader 指定了名称。

pt=96 指定了 RTP 负载类型(Payload Type),这里设置为 96。

将GST命令与RTSP Server联合使用,输入命令


```bash
./test-launch "nvarguscamerasrc sensor-id=0 ! video/x-raw(memory:NVMM), format=NV12, width=3264, height=2464, framerate=21/1 ! nvv4l2h264enc insert-sps-pps=true ! h264parse ! rtph264pay name=pay0 pt=96"
```

可以在同局域网下的另一台主机上通过RTSP协议访问当前主机来测试结果(VLC播放器可以接入RTSP协议流直接进行播放)。

最后,将test-launch.c内绑定的URL重新命名为leftright。并将开启和关闭写入脚本方便执行。



```bash
# launch-rtsp.sh
width=1920
height=1080
framerate=28
./left-rtsp-server "nvarguscamerasrc sensor-id=1 ! video/x-raw(memory:NVMM), format=NV12, width=$width, height=$height, framerate=$framerate/1 ! nvv4l2h264enc insert-sps-pps=true maxperf-enable=1 bitrate=8000000 ! h264parse ! rtph264pay name=pay0 pt=96" &
./right-rtsp-server "nvarguscamerasrc sensor-id=0 ! video/x-raw(memory:NVMM), format=NV12, width=$width, height=$height, framerate=$framerate/1 ! nvv4l2h264enc insert-sps-pps=true maxperf-enable=1 bitrate=8000000 ! h264parse ! rtph264pay name=pay0 pt=96" &
```

```bash
# stop-rtsp.sh

ps -al | grep "left\|right" | awk '{print $4}' | xargs kill
```

遥操作系统

VR遥操作系统面临的主要挑战在于要协调处理网络的不稳定性与对机械臂等硬件需要稳定输入的矛盾。这两者之间的平衡是确保远程遥操作系统有效运行的关键因素之一。

首先,网络的不稳定性可能导致延迟、数据包丢失或者不确定性的带宽情况。这种情况会直接影响到远程用户与机械臂之间的实时交互。在VR遥操作系统中,用户需要感受到虚拟环境中的实时变化,并对机械臂的运动进行即时响应。网络延迟可能导致用户的指令与机械臂的实际动作之间存在明显的滞后,降低了操作的准确性和流畅性。

另一方面,机械臂等硬件设备对输入的稳定性要求较高。由于遥操作系统需要实时传输用户输入到机械臂,输入信号的不稳定性可能导致机械臂的运动异常或失控。这对于需要高精度和可靠性的任务,如手术操作、工业维护等,可能带来严重的问题。

VR遥操作的困局(dilemma)

为了帮助你理解这个问题,首先要了解机械臂的运动方式。在传统机械臂运动中,发给机械臂一个点位,机械臂会自动规划到达目的地的加速与减速,以达到流畅顺滑的移动;但是由于机械臂会自动进行加速减速的规划,如果用这个方法去做遥操作,就会遇到机械臂在每两个采样点上频繁加速减速的过程,导致机械臂无法连续运动。而在遥操作情况下,加速减速应该由操作者的手运动来控制,因此理论上如果想要实现顺畅的遥操作,则需要机械臂有一个可以放弃自动规划,完全使用采样点来进行插值运动的接口。我们将这个接口命名为“速度融合接口”。

但是机械臂的底层插值运动接口通常对信号的稳定性有着极高的要求,必须要有毫秒级的稳定性才能保证机械臂稳定运行;这种完全采用采样点的插值底层运动接口,在Mercury机器人上的VR控制方式为在给定时间内,向指定目标点移动,举个例子,你输入了一个坐标,还有一个时间50ms,那么机械臂就会在这50ms内向着你发的坐标移动,如果到了就会停止(这也带来一个问题,后面会细说),如果机械臂没到目标位置,但是时间到了的话也会停止。

理想状态下,如果你持续且稳定地用速度融合直接给机械臂输入移动点位的命令,且你发送的间隔,刚好和你给定的运动时间片是完全匹配的,那么理论上机械臂此时在速度不超过限速的情况下,能够完全跟随人手。

但是此时如果下一条指令没有及时到来(可能因为网络带来的延迟波动),机械臂此时就会立刻急停,但是又因为没有减速的过程,此时机械臂就会因为急停而产生抖动。

一个合理的改进方案是加入缓存,缓存会平滑网络延迟带来的误差,给机械臂一个相对稳定的指令流,但是随之而来的问题就是实时性的降低。因为如果缓存发挥作用,那么实际下发的速度融合参数内给定的时间片就必须要小于实际的发送间隔,因为只有消费的指令比生产的指令更慢,才能保证缓存区内始终有一定量的指令可以下发,避免产生没有指令导致急停的尴尬。但是这样就会导致在网络稳定地情况下,缓冲区一直是满的,给整个控制系统加上了一个固定的时间片x缓冲区大小的延迟。

机械臂需要稳定地控制信号,因为它的运动本质上由电机驱动。在常规的点位移动中,机械臂会通过内部自动规划加速和减速,从而实现相对较为稳定的运动。然而,在遥操作领域,实时性是至关重要的,因此通常需要设计速度融合接口,将由VR端采样得到的点位直接下发给机械臂。这样的设计是为了确保实时性,但同时也带来了延迟和稳定性难以兼得的问题。

如果我们追求实时性,从网络传来一个点位就立刻发送,由于我们无法完全预测下一个控制信号何时到来,则提供的时间参数可能就会和实际产生偏移,如果给的太少就会造成机械臂速度连不起来,无法运动;给的太多就会造成机械臂还没运动完,下一个指令就发来了,造成指令堆积,降低实时性。如果追求稳定性,那就需要增加缓冲队列,用缓冲队列来平滑通信方式带来的延迟波动。但是同样的,这样就会增加控制延迟。这也就是遥操作系统的困局:延迟和稳定性不可兼得

VR端实现

VR端的实现采用了Unity3D + XR Interactive Toolkit, 选择Unity3D主要是因为其简单性,可以快速上手,且能支持多种VR平台。如果采用虚幻引擎可能需要花费大量时间在此工程之外的问题上。XR Interactive Toolkit是Unity3D的官方VR框架,使用这套系统而不是Oculus插件能够使项目方便的移植到其他VR设备上。

开发环境方面,除了使用Unity3D自带的Editor以外,C#编辑器使用Visual Studio 2022社区版。导入了UMP插件作为RTSP Player,以及Oculus官方的基本VR素材。

最开始的时候,我是打算采用绝对坐标一比一的转发手柄的动作,但是我发现这样操作很不方便。首先,Mercury机器人的臂展大概只相当于十几岁的小孩,如果使用完全绝对坐标1:1控制很容易导致机械臂撞到关节限位。而且手柄的初始位置也是个问题。因此最后我决定采用相对的控制方式,只有在按住特定按键的时候才允许机械臂移动,这样做的好处就是:在没有按下按钮的时候,你可以随意调整姿势;而在你开始运动的时候,机械臂永远是以你当前点为基准点进行相对运动,这样控制起来就容易得多了。

图传方面最开始的做法是,用服务器转发MJPG图片到VR端,然后以texture的方式渲染到屏幕上,这种方式的好处就是实现简单。缺点就太多了,首先就是延迟和CPU负载的问题;如果直接使用服务器转发图片,不但要至少多一次拷贝,还很难调用Nvidia自带的编解码器。而且在VR端也需要时间进行解码拷贝,整体延迟和CPU负载都很高。后来我想到了使用GStreamer+NV加速插件的方案,也就是上面说到的,利用了NV硬件加速以后,延迟和负载都得到了大幅度的改善。

除此之外,在开发过程中,我也对Unity3D+Quest 3作为遥操作平台有了更深的了解。首先在Unity3D中,几乎所有的运算都是和帧对齐的,虽然你可以开线程,但是游戏引擎给你提供的资源几乎都是按帧进行刷新的。比如我能获取到的手柄坐标,我能获取到的最大刷新率就是等于游戏帧率。因此在这个平台上,不考虑插值等操作,遥操作控制频率采样的上限其实就是帧率,这个数字通常是70-90hz每秒。因此我没有采用多线程来发送信息,而是使用了Unity3D中最普遍的做法:协程。使用协程能够保证你的操作和帧是对齐的,能够避免很多因为不同步导致的奇怪问题。




```c#
// One example of coroutine function
IEnumerator sendUpdate()
{
    if (!flag_origin_initialized) yield break;
    Vector3 pos = gameObject.transform.position;
    pos -= origin_pos;
    pos *= 1000;
    
    Vector3 rotation = gameObject.transform.rotation.eulerAngles;
    if (isZero(pos) || isZero(rotation))
        yield break;
    rotation = angleConvert(rotation);
    string content = $"[{pos.x:F2},{pos.y:F2},{pos.z:F2},{rotation.x:F2},{rotation.y:F2},{rotation.z:F2},{System.DateTime.UtcNow.Ticks / TimeSpan.TicksPerMillisecond}]";
    Debug.Log(content);
    using (UnityWebRequest www = UnityWebRequest.Post(updateURL, content, "application/json"))
    {
        www.timeout = 1;
        yield return www.SendWebRequest();
        Debug.Log(www.result);
        if (www.result != UnityWebRequest.Result.Success)
        {
            Debug.Log(www.error);
        }
    }
}

// Use this in main thread (eg. inside Update() to sync with main loop)
StartCoroutine(sendUpdate());

```

服务器端实现

服务器方面我使用的是简单可靠的Flask作为框架,因为我需要的仅仅只是作为RPC用途的控制框架。精简的Flask就能可以很好的完成这个任务。

在控制系统方面,Unity3D和机械臂平台的对齐也是一大难点,即如何将VR世界的坐标,翻译为机械臂能听懂的坐标。因为Mercury机器人的手臂,本质上是由两个Mercury单臂组成的,在单臂自己的视角下,它的坐标实际上是以它自己的底座,也就是胳膊大臂关节的位置为原点的,而不是以我们期望的——腰部为原点。因此需要设计一套坐标转换工具来实现从VR世界,到Mercury的基坐标系,再到单臂的坐标的转换。这个过程使用到了大量的线性代数工具和机器人学理论。

比如下面这段代码实现了VR坐标到基坐标系的转换



```python
def vr_to_base(posture):
    position = np.array(posture[:3])
    rotation = np.array(posture[3:])
    matrix = cvt_euler_angle_to_rotation_matrix(rotation)
    T = np.vstack((np.hstack((matrix, position.reshape(3, 1))), np.array([0, 0, 0, 1])))

    TRB = np.array([[0, 0, 1, 0], [-1, 0, 0, 0], [0, 1, 0, 310], [0, 0, 0, 1]])

    Tp = np.dot(TRB, T)

    rotation_matrix = Tp[:3, :3]
    position = Tp[:3, 3]
    rotation = cvt_rotation_matrix_to_euler_angle(rotation_matrix)

    return np.hstack((position, rotation))
```


一个有趣的问题就是左右臂互为镜像的问题,我和负责机器人算法的工程师不得不分别给两条臂使用不同的固件以兼容使用同一套转换算法。

前文提到,机械臂期望稳定且固定间隔的控制信号,而实现固定间隔就需要缓存系统和高精度的计时的下发系统。

首先是缓存问题,缓存主要考虑的一个问题就是线程安全。因为服务器本身是多线程运行的,两个网络包可能会同时到达,或者网络包到达时刚好碰上下发,因此设计一个线程安全的双端队列作为缓存区是首要任务。其次就是缓冲区的大小,下发时间的间隔,以及时间片参数的问题;这些参数也是下发系统延迟表现和稳定表现的均衡器,这些参数需要大量的实验来调试,以达到最佳表现。其中尤为难以平衡的是下发时间的间隔和时间片,因为网络延迟是不确定的,机器处理运算也需要时间,因此实际需要的时间是要比单纯下发的间隔要长的,具体长多少也是不固定的。因为这一层原因,实际上参数的设置需要更加保守才能保证系统运行稳定。

Python标准库中自带的time精度并不理想。因此单纯靠sleep来实现计时肯定是不可行的。我目前的做法是单独开一个线程,以大量占用CPU为代价高速轮询来实现低延迟下发。实测证明这种方式的延迟是要比直接给一个完整的sleep要低的。

class MyThread(Thread):
    ...

    def run(self) -> None:
        while running:
            if len(self.bucket)!= 0 and time.time_ns() - self.last_time > self.time_slice:
                # do something
                self.last_time = time.time_ns()
            time.sleep(0.00001)

优化

在基本框架完成以后,还可以对下发点位进行简单的滤波,以进一步去除抖动。人手在使用VR的时候不可能确保完美的停在一个点,在做直线运动的时候也不可能保证是完美的直线。我们可以单独对每个分量进行控制,过滤掉较低的分量,以实现更稳定地运动轨迹。

a = final_base_coords[:3]
b = self.last_arm_base_coords[:3]
if self.last_arm_base_coords is not None:
    diff = a - b
final_base_coords[:3] = np.where(abs(diff) > 5, a, b)

另一个可能的优化是对轨迹进行平均化操作,这样可以使得轨迹更加平滑,但是可能的trade off是要进一步增加延迟。以下是一个基于双端队列的滑动窗口的实现。

class SlidingWindow:
    def __init__(self, maxlen=5) -> None:
        self.lock = Lock()
        self.store = deque(maxlen=maxlen)
        for i in range(maxlen):
            self.store.append(1)
        self.maxsize = maxlen

    def append(self, obj):
        with self.lock:
            self.store.append(obj)

    def mean(self):
        with self.lock:
            return np.mean(np.array(self.store), axis=0)

    def clear(self):
        with self.lock:
            self.store.clear()

    def size(self):
        with self.lock:
            return len(self.store)


机械臂运动控制

  1. 动作捕捉:佩戴VR设备(如头盔和手套)进行实际动作。这些设备通过内置传感器捕捉用户的动作数据(如头部方向、手部位置和手势),并将这些数据实时传输到控制系统。

  1. 虚拟现实界面:用户在VR环境中可以看到虚拟的机械臂模型,并通过VR设备进行操作。用户的动作被映射到虚拟模型上,实时转化为机械臂的运动指令。
  2. 数据处理和传输:捕捉到的动作数据需要通过软件处理,转化为机械臂可以理解的指令。这些指令通常涉及关节角度、速度或位置信息的计算。然后,这些指令通过网络发送给机械臂控制器。
  3. 机械臂执行:机械臂接收到指令后,通过其内部控制系统执行相应的动作。这可能包括移动到特定的位置、按照特定的路径移动或执行复杂的手部动作。
  4. 反馈机制:为了提高操作的精确性和用户体验,系统可能包括反馈机制,如触觉反馈或视觉反馈,将机械臂的状态实时反映到VR环境中,以便用户调整其操作。

案例展示

https://youtu.be/mvpHFXcadNk

Summary

VR技术的进步正在打破物理空间的限制,使人们能够在虚拟环境中实现复杂的操作和互动,这对于远程控制、教育、医疗等领域具有重大意义。未来,随着VR技术的持续发展,我们可以预见更多创新的应用出现。例如,VR在模拟复杂手术、远程教育、灾难响应训练等领域的应用将更加广泛。

如果是你,你会怎样来使用Mercury X1呢?

大象机器人今天正式发布Mercury系列机器人,目前水星系列机器人共有三款产品,Mercury-A1七轴协作机械臂,Mercury-B1 半人形双臂机器人,Mercury-X1通用轮式人形机器人。三款产品的工业设计皆由瑞典团队精心设计而成,集成七大机器人核心算法,多种使用与开发方式。

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:/a/270733.html

如若内容造成侵权/违法违规/事实不符,请联系我们进行投诉反馈qq邮箱809451989@qq.com,一经查实,立即删除!

相关文章

FXCM福汇官网:深入解析BOLL指标的喇叭口形态及含义

BOLL指标是一种通过布林线(Bollinger Bands)的上轨线、中轨线和下轨线的相互关系来判断市场趋势和波动性的技术分析工具。BOLL指标的喇叭口形态包括开口型、收口型和紧口型,它们各自具有独特的含义。 《FXCM福汇官网开户》 1. 开口型喇叭口…

探索 React Hooks 的世界:如何构建出色的组件(上)

🤍 前端开发工程师(主业)、技术博主(副业)、已过CET6 🍨 阿珊和她的猫_CSDN个人主页 🕠 牛客高级专题作者、在牛客打造高质量专栏《前端面试必备》 🍚 蓝桥云课签约作者、已在蓝桥云…

C/C++ BM2链表内指定区间反转

文章目录 前言题目1. 解决方案一1.1 思路阐述1.2 源码 2. 解决方案二2.1 思路阐述2.2 源码 总结 前言 这题是BM1的升级版,不过是把完整的链表翻转变成了指定区间。 题目 描述 将一个节点数为 size 链表 m 位置到 n 位置之间的区间反转,要求时间复杂度 …

【数据结构】LRU缓存的简单模拟实现(leetcode力扣146LRU缓存)

文章目录 一、定义二、LRU模拟实现二、代码实现 一、定义 LRU是Least Recently Used的缩写,意思是最近最少使用,它是一种Cache替换算法。 Cache的容量有限,因此当Cache的容量用完后,而又有新的内容需要添加进来时, 就…

在Android中使用Flow获取网络连接信息

在Android中使用Flow获取网络连接信息 如果你是一名Android开发者,你可能会对这个主题感到有趣。考虑到几乎每个应用程序都需要数据交换,例如刷新动态或上传/下载内容。而互联网连接对此至关重要。但是,当用户的设备离线时,数据如…

天啦撸 超级麻烦的MySQL索引和数据引擎,快拿小本本记好

1 MySQL的索引 1.1 索引 定义: 索引是一个排序的列表,包含索引字段的值和其对应的行记录的数据所在的物理地址 ●索引是一个排序的列表,在这个列表中存储着索引的值和包含这个值的数据所在行的物理地址(类似于C语言的链表通过…

使用Maven Archetype插件制作项目脚手架(一)

Archetype是一个Maven项目模板工具包。通过Archetype我们可以快速搭建Maven项目。比如我们在ide里面创建项目时,可以选择很多maven内置的Archetype,我们最常用的可能是maven-archetype-quickstart 当然maven提供了能力,让我们自定义项目结构&…

Electron自定义通知Notification

Notification是什么? 对于渲染进程,Electron 允许开发者使用通知中API,来运行系统的原生通知进行显示。 如何实现系统Notification? const { Notification } require(electron);const isAllowed Notification.isSupported();…

最新ChatGPT商业运营网站程序源码,支持Midjourney绘画,GPT语音对话+DALL-E3文生图+文档对话总结

一、前言 SparkAi创作系统是基于ChatGPT进行开发的Ai智能问答系统和Midjourney绘画系统,支持OpenAI-GPT全模型国内AI全模型。本期针对源码系统整体测试下来非常完美,可以说SparkAi是目前国内一款的ChatGPT对接OpenAI软件系统。那么如何搭建部署AI创作Ch…

【FPGA】分享一些FPGA高速信号处理相关的书籍

在做FPGA工程师的这些年,买过好多书,也看过好多书,分享一下。 后续会慢慢的补充书评。 【FPGA】分享一些FPGA入门学习的书籍【FPGA】分享一些FPGA协同MATLAB开发的书籍 【FPGA】分享一些FPGA视频图像处理相关的书籍 【FPGA】分享一些FPGA高速…

【【IIC模块Verilog实现---用IIC协议从FPGA端读取E2PROM】】

IIC模块Verilog实现–用IIC协议从FPGA端读取E2PROM 下面是 design 设计 I2C_dri.v module IIC_CONTROL #(parameter SLAVE_ADDR 7b1010000 , // E2PROM 从机地址parameter CLK_FREQ 26d50_000_000 , // 50MHz 的时钟频率parameter …

[内功修炼]函数栈帧的创建与销毁

文章目录 1:什么是函数栈帧2:理解函数栈帧能解决什么问题呢3:函数栈帧的创建与销毁的解析3.1:什么是栈3.2:认识相关寄存器与汇编指令相关寄存器相关汇编指令 3.3 解析函数栈帧的创建和销毁3.3.1 预备知识3.3.2 详细解析一:调用main函数,为main函数开辟函数栈帧First:push前push…

【Python3】\u字符与中文字串互转

小水。 encode和decode: str没有decode函数,但对应的有encode函数,该函数作用是转码为bytes对象bytes通过decode函数转换回对应的str对于一些偏激的(可以用过分来形容)的字符串,例如一二三\\u56db\\u4e94\\u516d,是有…

k8s 组件

k8s: kubernets:8个字母省略,就是k8s. 自动部署,自动扩展和管理容器化的应用程序的一个开源系统。 k8s是负责自动化运维管理多个容器化程序的集群,是一个功能强大的容器编排工具。 以分布式和集群化的方式进行容器管理。 1.20面试版本 …

RPC(6):RMI实现RPC

1RMI简介 RMI(Remote Method Invocation) 远程方法调用。 RMI是从JDK1.2推出的功能,它可以实现在一个Java应用中可以像调用本地方法一样调用另一个服务器中Java应用(JVM)中的内容。 RMI 是Java语言的远程调用,无法实现跨语言。…

小程序真机如何清除订阅数据

在做小程序订阅消息开发的过程中发现,真机上如果是选择了‘总是保持以上选择’,一旦用户授权后,后面就不会再弹出申请改订阅消息的授权弹窗,这对于开发过程中是很不方便的。 曾试过清除缓存,重进小程序也不能清除掉 解…

爬虫反爬之代码混淆,特殊编码,表情编码

不知道你是否见过这样的代码,完全看不懂。 大家好,这一集我们来看一下前端反爬的代码混淆,一般啊我们自己写的前端代码都是直接上传公开的,如果用的不是框架打包出来的代码,就是自己写的js,html文件没有经过…

T-Dongle-S3开发笔记——创建工程

创建Hello world工程 打开命令面板 方法1:查看->命令面板 方法2:按F1 选择ESP-IDF:展示示例项目 创建helloworld 选择串口 选择芯片 至此可以编译下载运行了 运行后打印的信息显示flash只有2M。但是板子上电flash是W25Q32 4MB的吗 16M-bit

SPFA算法总结

知识概览 SPFA算法是Bellman_Ford算法的优化。时间复杂度一般是O(m),最坏时间复杂度是O(nm)(遇到网格图、菊花图),其中n是点数,m是边数。SPFA算法其实是单源最短路限制最小的算法,只要图中没有负环&#xf…

Mongodb基础介绍与应用场景

NoSql 解决方案第二种 Mongodb MongoDB 是一款开源 高性能 无模式的文档型数据库 当然 它是NoSql数据库中的一种 是最像关系型数据库的 非关系型数据库 首先 最需要注意的是 无模式的文档型数据库 这个需要后面我们看到它的数据才能明白 其次是 最像关系型数据库的非关系型数据…