将Hexo部署到远程服务器
1. 服务器部署 1.1 Git用户设置 首先在远程服务器中创建Git用户 1adduser git 增加sudo权限 1sudo vim /etc/sudoers 在文件中找到如下命令 12## Allow root to run any commands anywhereroot ALL=(ALL) ALL 添加以下内容 1git ALL=(ALL) ALL 然后按Esc键,然后按w!回车和q!回车,强制写入 在git用户下创建.ssh并将公钥复制到authorized_keys文件中 1.2 创建仓库目录 在var目录下创建repo作为Git仓库目录 1sudo mkdir /var/repo 赋予权限 12sudo chown -R git:git /var/reposudo chmod -R 755 /var/repo 接下来创建Hexo目录作为网站根目录,并赋予权限 123sudo mkdir /var/hexosudo chown -R git:git /var/hexosudo chmod -R 755 /var/hexo 接下来创建...
创建随机图片API
1. 创建站点 在宝塔面板的网站中添加站点作为API地址,将网站开启PHP,并申请一个SSL认证并打开强制https 2. 创建图片链接 打开这个站点的目录,创建一个img.txt和一个index.php 在PicGo的相册中全部选中并复制图片url,将链接粘贴到img.txt中 在index.php写入如下内容 123456789101112131415161718192021222324252627282930313233<?php//存有image链接的文件名img.txt$filename = "img.txt";if(!file_exists($filename)){ die('文件不存在');} //从文本获取链接$pics = [];$fs = fopen($filename, "r");while(!feof($fs)){ $line=trim(fgets($fs)); if($line!=''){ arra...
服务器搭建图床
工具链如下 阿里云轻量服务器 宝塔面板 Docker MinIO PicGo IMCompressor 1. 搭建Docker 使用宝塔快速搭建Docker,若没有安装宝塔则先安装一下宝塔 1wget -O install.sh https://download.bt.cn/install/install-ubuntu_6.0.sh && sudo bash install.sh 12f2c1d72 之后,安装好宝塔后,进入宝塔面板内,安装Docker 2. 安装MinIO 在线上镜像中搜索MinIO镜像,然后构建对应容器,并开启9001-->9001/tcp和 9000-->9000/tcp两个端口映射, MINIO_BROWSER_REDIRECT_URL对应的端口为控制台接口,MINIO_SERVER_URL对应端口是API使用。 在阿里云服务器防火墙中开放9000和9001端口 现在,可以通过域名/IP:控制台端口 的方式访问MinIO的控制台了 3. 配置MinIO 在MinIO的控制台输入创建时候的账号密码。就可以登录进去 登陆进去以后...
终端美化
1. zsh 1.1 安装zsh 12345sudo apt-get updatesudo apt-get install zsh#设为默认chsh -s $(which zsh) 不要关闭终端 1.2 安装oh-my-zsh 1、curl/wget下载 1sh -c "$(curl -fsSL https://raw.githubusercontent.com/ohmyzsh/ohmyzsh/master/tools/install.sh)" 2、手动下载 12345git clone git@github.com:ohmyzsh/ohmyzsh.gitcd ohmyzsh/tools/./install.sh 1.3 修改主题 1vim ~/.zshrc 找到ZSH_THEME=“”,这句话,在双引号里面写上 crunch就可以啦 1.4 修改远程仓库地址 HTTPS访问GitHub经常受到网络限制或防火墙的影响,改用SSH是一个更稳定的选择 打开配置文件: 1vim ~/.oh-my-zsh/.git/config 将仓库 URL 从 HTTPS 改为...
第四章策略梯度
1. 策略梯度算法 强化学习有3个组成部分:演员(actor)、环境和奖励函数。环境与奖励函数不是我们可以控制的,它们是在开始学习之前给定的。我们唯一需要做的就是调整演员里面的策略,使得演员可以得到最大的奖励 策略一般记作π\piπ。假设我们使用深度学习来做强化学习,策略就是一个网络。网络里面有一些参数,我们用θ\thetaθ来代表π\piπ的参数。网络的输入是智能体看到的东西,输出是我们可以执行的动作,有几个动作,输出层就有几个神经元 我们把初始状态记作s1s_1s1,把第一次执行的动作记作a1a_1a1,把第一次执行动作以后得到的奖励记作r1r_1r1。不同的人有不同的记法,有人觉得在s1s_1s1执行a1a_1a1得到的奖励应该记为r2r_2r2,这两种记法都可以 一场游戏称为一个回合。将这场游戏里面得到的所有奖励都加起来,就是总奖励(total reward),也就是回报,我们用RRR来表示它 在一场游戏里面,我们把环境输出的sss与演员输出的动作aaa全部组合起来,就是一个轨迹,即 τ={s1,a1,s2,a2,⋯ ,st,at}\tau = \{ s_1,...
Hello World
Welcome to Hexo! This is your very first post. Check documentation for more info. If you get any problems when using Hexo, you can find the answer in troubleshooting or you can ask me on GitHub. Quick Start Create a new post 1$ hexo new "My New Post" More info: Writing Run server 1$ hexo server More info: Server Generate static files 1$ hexo generate More info: Generating Deploy to remote sites 1$ hexo deploy More info: Deployment