requirements.txt
中默认在windows系统下
打开PowerShell terminal(version 5.1 or later)
> Set-ExecutionPolicy -ExecutionPolicy RemoteSigned -Scope CurrentUser
> Invoke-RestMethod -Uri https://get.scoop.sh | Invoke-Expression
scoop bucket add extras
scoop install anaconda3
在项目文件夹下
conda create -n apex python=3.10
conda activate apex
pip install -r requirements.txt
使用gpu进行推理所必须,配置过程较复杂,请去搜索专门的资料
提供一份2021.9版本,仅供学习
管理员模式打开一个终端
python apex.py
https://github.com/goldjee/AL-YOLO-dataset
使用Yolov5 的train.py文件,修改数据集路径参数
训练日志以及过程的数据存放在exp
目录下
使用DXcam截图来替代yolov5自带的mss截图,将截图时间从15ms优化到5ms
使用Dxshot将截图时间进一步优化
注意:因为是通过屏幕截图的方式来获取的图像,所以屏幕刷新率会限制FPS的上限
加入了win函数控制鼠标移动的选项,但是在训练场里试了试没有效果,有可能游戏更新之后已经把这个给修复掉了(?),而且正常情况下win函数的效率太低,所以默认还是鼠标驱动控制鼠标
暂时没想出来如何将鼠标直接移过去,网上也找不到前人的经验。
基于内存的外挂自瞄原理是可以拿到三维坐标,直接修改方向角来瞄准敌人,而基于计算机视觉的外挂只能拿到目标在屏幕上的投影,这是一个二维坐标,要解算出移动的向量很依赖游戏底层的参数(视场角等,详见issue),目前还没想明白怎么一帧锁敌,也许将来会去实现。
况且一帧锁敌会大大提高被检测的风险性,实现的价值不大,短期内不会再向这个方向去努力了。
目前采用的是将准星逐步移动到目标身上的方法,牺牲了一点点效率,达到了准星吸附一样的效果。
update: 将fov的算法初步投入使用,效果还不错
python apex.py