Real-Time Facial Motion Capture System.pdf
表情捕捉方法,有关blendshape的介绍比较有用
通过2D图片进行表情驱动的讲义,来源https://umm-csci.github.io/senior-seminar/seminars/fall2016/Saxslides.pdf
转载自:http://www.cad.zju.edu.cn/home/jin/3danimationcourse/IK3.pdf
具体环境安装操作流程可看链接:https://pan.baidu.com/s/1Q7V2Fz_cv4Sjsam_tbRD4g?pwd=bing 提取码:bing 基于python的flask工具构建服务端,进行3D姿态和人脸关键点相关推断计算,然后在unity构建卡通角色的人脸和人体的驱动客户端。博客可见https://blog.csdn.net/zb1165048017/article/details/109834126 注意先运行server文件夹下的run_server.bat,相关python环境请自行安装。然后再在unity中打开firstscene客户端。
编译好Ogre以后,需要一个测试文件,播放动画时候一直失败,这个代码可以播放动画,主要是在frameRenderingQueued里面加点东西。版本Ogre1.12.6
官方代码自动下载的模型,跑得时候一直出问题,重新下载以后就可以运行了。这里打包一下整个工程,备份一波。
openpose对应的python代码解读,主要针对多人场景中的亲和场,判断每个关键点属于哪个人!仅仅是推断部分的解读,后面再看看训练部分的代码。
复现论文《color harmonization》的代码,自行查看博客的理论解读!最后一步的复现可能有问题,自行解决
keras按照tensorflow的数据读取方法喂数据,主要是为了解决GPU利用率不稳定问题。 第15个cell有点问题,改动一下: ds = img_label_ds.cache() ds=ds.shuffle(buffer_size=image_count) ds=ds.repeat() ds=ds.batch(batch_size) ds = ds.prefetch(buffer_size=tf.contrib.data.AUTOTUNE)