0%

python

  1. 字符串反转

    1
    2
    3
    s1="".join((lambda x:(x.sort(),x)[1])(list(s)))
    # 或者
    s1=s1[::-1]
  2. 列表反转

    1
    s1=s[::-1]
  3. 求字典前n个最大值对应的键

    1
    return nlargest(k,hashmap,key=lambda k:hashmap[k])
  4. 查找当前目录的根目录,子目录以及文件信息

    1
    for root,dirs,files in os.walk(dir_name):
  5. 退出程序

    1
    sys.exit(0)
阅读全文 »

内网穿透介绍

摘自百度百科

  内网穿透,也即 NAT 穿透,进行 NAT 穿透是为了使具有某一个特定源 IP 地址和源端口号的数据包不被 NAT 设备屏蔽而正确路由到内网主机。下面就相互通信的主机在网络中与 NAT 设备的相对位置介绍内网穿透方法。
  UDP 内网穿透的实质是利用路由器上的NAT 系统。NAT 是一种将私有(保留)地址转化为合法IP地址的转换技术,它被广泛应用于各种类型 Internet 接入方式和各种类型的网络中。NAT可以完成重用地址,并且对于内部的网络结构可以实现对外隐蔽。

简单的拿游戏来说,就是即使不在同一个局域网下,大家也可以联机一起玩!

阅读全文 »

准备工具

  1. 一套鼠标、键盘
  2. 一台装有win10的笔记本
  3. 一台装有ubtuntu的笔记本
  4. 局域网

ps:上述材料是我在安装时用到的,可以因人而异

阅读全文 »

正则化的定义

  首先,我们来简单认识一下什么是正则化。对于机器学习的算法,我们要尽可能的降低训练的错误率,而对于深度学习而言,只要给予足够多的神经元,理论上错误率可以达到无穷小,但是同时也会带来严重的问题,就是过拟合!因此,我们需要采取一些手段,去尽可能的降低验证错误率(有时需要牺牲训练的错误率),这种操作一般统称为正则化~
  过拟合的本质就是由于算法模型能力过于强大,将数据中的一些不重要信息(例如噪声)也学习到模型之中,使模型的泛化性降低,从而使得验证集错误率升高,因此常见的正则化方法为限制学习算法能力,当然还有一些其他的手段作为辅助,下面我来一 一介绍~

阅读全文 »

安装torch-sparse报错,解决方法如下:

例如

1
2
3
4
5
pip install torch-scatter==latest+cu102 -f https://pytorch-geometric.com/whl/torch-1.5.0.html
pip install torch-sparse==latest+cu102 -f https://pytorch-geometric.com/whl/torch-1.5.0.html
pip install torch-cluster==latest+cu102 -f https://pytorch-geometric.com/whl/torch-1.5.0.html
pip install torch-spline-conv==latest+cu102 -f https://pytorch-geometric.com/whl/torch-1.5.0.html
pip install torch-geometric

注意,选择好对应的版本应该就没有什么大问题了~

快速下载github文件方法如下:

  • 打开github 页面,复制 Download ZIP 的链接地址,如下图所示

  • 打开下载网站 https://d.serctl.com/?dl_start ,将链接粘贴上去

  • 等待网站下载完成,然后选择你的github文件,点击下载地址即可

安装报错如下:

解决方法如下:

  • 首先,先安装包cython pip install cython

  • 离线下载pydensecrf的安装包,下载地址:https://www.lfd.uci.edu/~gohlke/pythonlibs/#pydensecrf ,找到对应的版本!

  • 离线安装 例如pip install C:\Users\97751\Downloads\pydensecrf-1.0rc2-cp38-cp38-win_amd64.whl

大功告成,安装成功~

  最近从老师那里搞到了一个Jason nano开发板,本来里面有一个系统,然而断电导致系统文件损坏,使得系统无法正常启动,无限重启,我从各个网站看到的教程都不太行,只能把sd卡拔下来,重刷一遍系统,把里面的深度学习环境配置一下,中间遇到了很多坑,写个blog记录一下~

阅读全文 »