「tensorflow」 Variable was uninitialized
Initialize:
1 | import tensorflow as tf |
Work:
1 | model = tf.saved_model.load(dir) |
1 | model = tf.saved_model.load(dir) |
Failed:
1 | model = tf.saved_model.load(dir).signatures['serving_default'] |
1 | tensorflow.python.framework.errors_impl.FailedPreconditionError: Error while reading resource variable conv5_block17_0_bn/gamma_96932 from Container: localhost. This could mean that the variable was uninitialized. Not found: Resource localhost/conv5_block17_0_bn/gamma_96932/N10tensorflow3VarE does not exist. |
第一印象(First Impressions)人物性格特征预测
| User | interview | agreeableness | conscientiousness | extraversion | neuroticism | openness |
|---|---|---|---|---|---|---|
| heysky | 0.920916 | 0.913731 | 0.919769 | 0.921289 | 0.914613 | 0.917014 |
| hershd23 | 0.9180 | 0.9111 | 0.9153 | 0.9150 | 0.9100 | 0.9102 |
| baseline | 0.916202 | 0.91123 | 0.915228 | 0.91122 | 0.910378 | 0.911123 |
| bekhouche | 0.915746 | 0.910312 | 0.913775 | 0.91551 | 0.908297 | 0.910078 |
| *MS1997 | 0.9047 | 0.9075 | 0.9066 | 0.9030 | 0.9018 | 0.9046 |
| go2chayan | 0.901859 | 0.903216 | 0.894914 | 0.90266 | 0.901147 | 0.904709 |
| azzasama | 0.872129 | 0.891004 | 0.865975 | 0.878842 | 0.863237 | 0.874761 |
「Jetson Nano」 Reduce Memory Usage
Nano 的4G内存太小了(最近还出来一个2G版nano >_<),模型跑不动的患者可以通过以下几个步骤减少内存消耗。
1. 关闭用户图形界面
sudo systemctl set-default multi-user.target
sudo reboot
开启用户图形界面
sudo systemctl set-default graphical.target
sudo reboot
2. 切换图形界面
默认图形界面为Unity,Ubuntu 18 系统自带Gnome3,可切换到 lxde 以节约内存。
- GNOME3 :1047M
- Unity: 517M
- xfce: 247M
- lxde: 214M
3. 关闭 dockerd 节约 49M
A Survey of Visual Question Generation
Give an image, the task is to generate natural Question based on the image.
- Another list of VQA https://github.com/jokieleung/awesome-visual-question-answering
- A survey of Image Caption in Chinese https://zhuanlan.zhihu.com/p/27771046
- Survey of the State of the Art in Natural Language Generation: Core tasks, applications and evaluation [Link
Inference using TensorRT Backend.
0x01 Tensorflow 2.0
1.1. Convert
keras hdf5 –> .pb
1 | # V2 behaviour is disabled by default in Jetpack 4.4.DP. |
多模态人工智能与边缘计算技术
自然交互:更接近与人之间的交互方式。 PC:键盘鼠标;移动:触控;现在:语音、手势、图像。云端一体:场景智能:主动感知、用户理解、个性化推荐、智能决策。
0x01 多模态自然交互
5G加速智联网时代的到来,多模态数据成为主流
电阻屏=>电容屏:流量从PC时代走向移动时代
多模态自然交互:移动时代走向智联网时代
1976发现麦格克效应2015200 citation–>3000+ citation. 有代表的论文 VQA: Visual Question Answering (ICCV 2015)2016多个大型多模态数据集发表 (Youtube8m, audioset)2017VoxCeleb 发布(多模态自然人识别数据集)2018视觉语音降噪,虚拟人合成技术
多线激光 Velodyne 与相机的配准及投影
0x00 Velodyne 简介
1. 数据结构及坐标系
Velodyne 通过网线发送的原始数据包为球坐标(spherical coordinates, r, ω, α)。它的 ros driver 提供了两种更方便的格式:/velodyne_points和/velodyne_scan
其中,/velodyne_points是转换为XYZ后的坐标,转换的方式如下图;/velodyne_scan为第8根线的scan值(可直接用来模拟单线雷达)。
多目相机、Velodyne标定那些破事
0x01 制作标定板
- 在线生成棋盘格 https://calib.io/pages/camera-calibration-pattern-generator
- 在线生成aruco http://chev.me/arucogen/
0x02 相机标定
- camera_calibration: 使用棋盘格进行标定;
- kalibr: 这个感觉更专业一些,可以同时标多目和IMU。
0x03 雷达–>相机外参标定
目前我成功的有两种方法:
autoware_camera_lidar_calibrator: 不需要自制标定板,需要手动人工点击9个点velo2cam_calibration: 全自动,需要定制一个标定板
在 Macbook 中美美的运行 Ubuntu
文档布局分析 & 扭曲文档图像恢复 --- Document Layout Analysis & Document Image Dewarping
0x00
对文本进行OCR前,必须分析和定义文档的逻辑结构。 例如文本块、段落、行的位置;是否有应该重建的表格;是否有“图像”“条形码等”。
文档布局分析 (Document Layout Analysis) 是识别和分类文本文档的扫描图像中的感兴趣区域(RoI, Regions of Interest) 的过程。阅读系统需要从非文本区域分割文本区域,并按正确的阅读顺序排列。将文本正文,插图,数学符号和嵌入文档中的表格等不同区域(或块)的检测和标记称为几何布局分析。但文本区域在文档中扮演不同的逻辑角色(标题,标题,脚注等),这种语义标记是逻辑布局分析的范围。
文档布局分析是几何和逻辑标签的结合。它通常在将文档图像发送到OCR引擎之前执行,但也可用于检测大型存档中同一文档的重复副本,或者通过其结构或图示内容索引文档。
安装NVIDIA Jetpack/DriveInstall后,apt-get 报错无arm64源
网上的解决方案大多是
删除已经安装的arm64包,然后执行dpkg --remove-architecture arm64,但是错误在下次刷机后依然会出现
制作一个送咖啡机器人 -- ORB SLAM2
linux kernel bug 导致无法载入 nvidia 驱动
执行 nvidia-smi 显示: NVIDIA-SMI has failed because it couldn’t communicate with the NVIDIA driver. Make sure that the latest NVIDIA driver is installed and running.
RSA,KMP,AVL树,红黑树和LLRB-tree
最长公共子序列(LCS)到git diff
2017年终总结
2017年应该是最折腾的一年,为了传说中的梦想从深圳到了北京,离开了我超喜欢的一个领导,到计算所后由期待到失望…
时间过的很快,因为把时间都浪费在搬家和融入新团队中了。不过忙忙碌碌的好处就是没有时间发呆和难过了哈哈哈 >_<
《数据结构与算法分析》复习笔记
不过我喝咖啡从来不是为了提神的 这个世界上唯一提神的东西就是你今天必须完成的事情呀
博士只考一门数据结构与算法分析,如果这都考不过那就真的重在参与了。本文把看完书以后手撸的代码贴出来,留个纪念。
通过MNIST熟悉Keras——《TensorFlow 实战》读书笔记
Tensorflow 的使用者虽多,但真的很难用。幸亏有基于TF和Theano的高层框架Keras(不幸的是Theano已经停止更新了)。我们通过MNIST来熟悉一下Keras。
先推荐一个学习线性代数的教程http://www.bilibili.com/video/av6731067/,不管你多忙也请看上面这个视频。
3Blue1Brown制作,深入浅出、直观明了地分享数学之美。
新工作:制作一个送咖啡机器人——调参
首版复刻的Fender '57 & '62 Strat 拾音器
去年10月份左右从咸鱼买了一把号称93年产原装无修改的Fender vintage 57 stratocaster,拆开看了一下,琴颈的生产日期是1993.05.21,还挺有纪念意义的。但就在我买了新拾音器准备改装它的时候,好像发现了一个天大的秘密。
新工作:制作一个送咖啡机器人——第一周
来北京一个月,一直蜗居在一个小屋里,没有钱花+前途迷茫的感觉真是浑身难受。
我现在的任务是接手之前几个客座生的项目,用Turtlebot做一个送咖啡机器人。第一周的时间用来搭建一个完整的demo
计算机视觉技术调查报告
本资源来自网络,侵权请按ALT+F4
0x01 深度学习基础框架
1.人脸检测、跟踪、识别、三维建模的开源框架、算法、论文
(1) 人脸检测
在人脸检测方面常用的用两个,一个是 Tinyface 能检测到比较小的人脸。可以先玩通demo
另外一篇更为常用,如果你们对固定场景,比如视频对话,检测效果不错。而且他们能标注人脸关键点。
文章:Joint Face Detection and Alignment using Multi-task Cascaded Convolutional Networksb((Code)) 很多最近的创业公司用这个,但是如果场景特殊需要 re-train 一下
(2) 人脸跟踪
因为这个已经不是学术前沿问题,所以 CVPR、ICCV 上没有文章研究这一块
人脸跟踪这一块 openCV 有一个比较好的教程 http://opencv-java-tutorials.readthedocs.io/en/latest/06-face-detection-and-tracking.html
但是,工程上通用的做法还是,逐帧用最好的 face detector(比如 tiny face)检测后,用 optical flow 串起来。因为现在 face detection 已经很快了,没必要用 tracking 来加速,能做到很快。具体怎么弄我们可以当面讨论。
我的学生找了一下开源库(仅作参考,不建议用),但是不是正规的文章 https://github.com/kylemcdonald/ofxFaceTracker
Jetson TX-2 入门 -- 全部你应该知道的
首先庆祝一下我用TX-1做实验写的《GPU加速与L-ORB特征提取的全景视频实时拼接》发表啦^_^
导师表示很开心,又给我买了两台TX-2
TX-2比TX-1除了性能的升级,其它部分没有太大变化,接下来要写的小技巧对于TX-1/2都适用。使用期间发现的问题都会持续更新到这篇博客,目前发现的问题有:
- OpenCV4Tegra 不支持 -lopencv_nonfree
- OpenCV4Tegra 在TX-2中不支持 GPU 模块
- 如何开启被屏蔽的2块CPU并设置为最大频率
- 开启Nvidia TX-1/2 的VNC
Softmax, MLP, CNN 三种方法识别手写数字MNIST——《TensorFlow 实战》读书笔记
不要代码写多了就变得那么没有人情味了
0x00 Intro
1. 读入MNIST数据库
执行mnist = input_data.read_data_sets("MNIST_data/", one_hot=True)后,会检查MNIST_data/文件夹下有没有数据库文件,如果没有会自动下载。这一步如果执行比较慢,可以用迅雷手动下载下面四个文件,保存到MNIST_data目录(不需要解压)
- train-images-idx3-ubyte.gz: training set images (9912422 bytes)
- train-labels-idx1-ubyte.gz: training set labels (28881 bytes)
- t10k-images-idx3-ubyte.gz: test set images (1648877 bytes)
- t10k-labels-idx1-ubyte.gz: test set labels (4542 bytes)
















