1.Android 手机自动化测试工具有哪些?
2.「安卓按键精灵」扒别人脚本的安卓安卓安装界面源码
3.手部关键点检测2:YOLOv5实现手部检测(含训练代码和数据集)
Android 手机自动化测试工具有哪些?
1、Monkey是触摸测试触摸测试Android SDK自带的测试工具,在测试过程中会向系统发送伪随机的源码源码用户事件流,如按键输入、下载下载触摸屏输入、安卓安卓安装手势输入等),触摸测试触摸测试老兵指标源码实现对正在开发的源码源码应用程序进行压力测试,也有日志输出。下载下载实际上该工具只能做程序做一些压力测试,安卓安卓安装由于测试事件和数据都是触摸测试触摸测试随机的,不能自定义,源码源码所以有很大的下载下载局限性。
2、安卓安卓安装MonkeyRunner也是触摸测试触摸测试Android SDK提供的测试工具。严格意义上来说MonkeyRunner其实是源码源码一个Api工具包,比Monkey强大,可以编写测试脚本来自定义数据、wow钓鱼插件源码事件。缺点是脚本用Python来写,对测试人员来说要求较高,有比较大的学习成本。
3、Instrumentation是早期Google提供的Android自动化测试工具类,虽然在那时候JUnit也可以对Android进行测试,但是Instrumentation允许你对应用程序做更为复杂的测试,甚至是框架层面的。通过Instrumentation你可以模拟按键按下、抬起、屏幕点击、滚动等事件。Instrumentation是通过将主程序和测试程序运行在同一个进程来实现这些功能,你可以把Instrumentation看成一个类似Activity或者Service并且不带界面的组件,在程序运行期间监控你的俊富通源码主程序。缺点是对测试人员来说编写代码能力要求较高,需要对Android相关知识有一定了解,还需要配置AndroidManifest.xml文件,不能跨多个App。
4、UiAutomator也是Android提
「安卓按键精灵」扒别人脚本的界面源码
在一次技术交流中,有朋友向我咨询如何解析别人的安卓脚本界面源码,我虽不擅长直接破解,但分享一下如何通过常规手段揭开这一层神秘面纱。
界面的代码其实并不复杂,主要由几个基础元素构成,模仿起来并不困难。不过,这里我们不走寻常路,而是要深入探究其背后的逻辑和文件结构。
要找到界面代码,python源码web应用首先需要进入脚本的安装目录,通常在"/data/data/"后面跟随应用的包名。打开这个目录,找到其中的"files"文件夹,这个文件夹往往是保存应用界面配置的地方,基于以往的经验,我们先一探究竟。
在一堆与脚本相关的文件中,我们使用文本读取命令逐一探索。代码逻辑是逐个读取文件内容,比如当我们看到script.cfg文件,它虽与界面截图对应,但并非源码,只是记录了用户填写内容的配置信息。
在遍历的输出结果中,我注意到一行标注为"script.uip"的PSD源码链接网文件。从后缀名判断,这可能是与UI界面相关的。更有趣的是,它包含了一些花括号{ },这提示了我们可能找到了界面源码的线索。
接着,我们面对的是可能存在的乱码问题。按键的乱码可能是加密或编码问题,通过观察问号,猜测是编码错误。编码为utf8的按键支持广泛,我们尝试用转码插件来解决这个问题,以gbk编码为例进行测试,结果出乎意料地顺利。
解决乱码后,我们将调试结果复制到文本中,确认这就是我们寻找的界面源码。将其粘贴回脚本中,界面效果依然保持完好。
但别忘了,包名这一关键信息可能需要用户自行获取。在运行脚本时,可以在界面上找到包名。为了简化操作,我们可以在脚本中直接引入包名,跳过遍历,直接读取界面文件。
至此,我们已经完成了从头到尾的解析过程,代码也变得更加简洁有效。如果你对这些内容感兴趣,不妨试着操作一番,或许会有所收获。
当然,如果你在探索过程中遇到任何问题,或者想要了解更多关于按键精灵的资源,别忘了关注我们的论坛、知乎账号以及微信公众号"按键精灵",那里有更全面的教程和讨论。
手部关键点检测2:YOLOv5实现手部检测(含训练代码和数据集)
手部关键点检测第二部分:使用YOLOv5进行手部检测(附带训练代码和数据集)
本篇将专注于手部检测模型的开发,采用自上而下的方法,分为两阶段:首先进行手部检测,然后估计手部关键点。所采用的框架是基于开源的YOLOv5项目。
项目成果包括一个精度高达mAP_0.5=0.,mAP_0.5:0.=0.的手部检测模型,以及轻量化版本的yolov5s_和yolov5s_模型,均适用于普通Android手机,CPU(4线程)约ms左右,GPU约ms左右。
手部检测结果和手部关键点检测效果已经展示,并提供了Android手部关键点检测APP的下载链接。
1.1 手部检测数据集说明
收集了三个手部检测数据集:Hand-voc1,Hand-voc2和Hand-voc3,总共有+张,标注格式统一为VOC数据格式,便于深度学习手部目标检测模型算法开发。
1.2 自定义数据集
如果需要调整数据集进行训练,或自定义数据集,可以参考相应步骤。
2. 基于YOLOv5的手部检测模型训练
训练Pipeline基于YOLOv5进行,使用GitHub上的YOLOv5项目,需要将原始数据集转换为YOLO的格式。项目代码已在Ubuntu和Windows系统上验证,确保无误。
训练数据准备、配置数据文件、模型文件,选择轻量化的yolov5s模型,该模型计算量减少了倍,参数量减少了7倍,适应手机端性能。
训练过程可视化使用Tensorboard,训练结果输出包括各种性能指标。
3. Python版本手部检测效果展示
项目提供demo.py文件用于测试模型效果,兼容Windows系统。展示手部检测结果。
4. 提升模型性能的建议
通过调整数据集、参数配置,可进一步提高模型性能。
5. 手部检测与手部关键点检测
项目已实现Android版本的手部检测与关键点检测,应用在普通Android手机上达到实时效果,满足业务性能需求。
6. 项目源码下载
项目包含手部检测数据集、训练代码和测试代码,支持Android应用开发。
完成的手部检测与关键点检测,可应用于多种场景,提供高性能、实时的手部检测解决方案。