博客
关于我
使用Travis+github+hexo持续部署博客项目
阅读量:124 次
发布时间:2019-02-26

本文共 1372 字,大约阅读时间需要 4 分钟。

一、github基本操作

  • 1、创建一个hexo_blog的项目

  • 2、生成一个个人账户的token(注意这个地方生成的token必须立刻复制,刷新页面就看不到了)

    点击右上角的头像settings—>Developer settings —> Personal access tokens—>genderate new token

二、使用hexo建站

  • 1、根据官网的步骤一步一步来
  • 2、生成一个项目提交到刚刚的github仓库中

三、使用travis持续部署项目

  • 1、Travis CI 提供的是持续集成服务(Continuous Integration,简称 CI)。它绑定 Github 上面的项目,只要有新的代码,就会自动抓取。然后,提供一个运行环境,执行测试,完成构建,还能部署到服务器
  • 2、持续集成指的是只要代码有变更,就自动运行构建和测试,反馈运行结果。确保符合预期以后,再将新代码集成到主干
  • 3、持续集成的好处在于,每次代码的小幅变更,就能看到运行结果,从而不断累积小的变更,而不是在开发周期结束时,一下子合并一大块代码
  • 4、Travis CI 只支持 Github,所以你要拥有GitHub帐号
  • 5、点击Sign in with GitHub按钮,使用github账户登录

  • 6、同步github上的项目

  • 7、同步设置刚刚github上生成的tokon

四、.travis.yml文件编写

  • 1、Travis 要求项目的根目录下面,必须有一个.travis.yml文件。这是配置文件,指定了 Travis 的行为

  • 2、该文件必须保存在 Github仓库里面,一旦代码仓库有新的 Commit,Travis就会去找这个文件,执行里面的命令

  • 3、这个文件采用 YAML 格式。下面是一个最简单的 Node 项目的.travis.yml文件

  • 4、language 字段指定了默认运行环境,

  • 5、node_js: “11” 表示不执行任何脚本,状态直接设为成功

  • 6、具体配置()

    language: node_jsnode_js:  - '11'install:  - npm installscript:  - hexo gafter_script:  - cd ./public  - git init  - git config user.name ${     USERNAME}  - git config user.email ${     UESREMAIL}  - git add -A  - git commit -m 'init'  - git push -u -f "https://${TOKEN}@github.com/${USERNAME}/hexo_blog" master:gh-pagesbranches:  only:    - master

五、修改hexo的配置文件

上面直接提交代码虽然可以自动发布,但是样式加载不出来

  • 1、修改_config.yml文件

    url: https://kuangshp.github.io/hexo_blog/root: /hexo_blog/

六、这样每次git提交代码travis就会自动帮你发布项目

七、查看静态站点地址(在github上打开项目的设置,往下翻)

转载地址:http://zevf.baihongyu.com/

你可能感兴趣的文章
NHibernate动态添加表
查看>>
NHibernate学习[1]
查看>>
NHibernate异常:No persister for的解决办法
查看>>
Nhibernate的第一个实例
查看>>
NHibernate示例
查看>>
nid修改oracle11gR2数据库名
查看>>
NIFI1.21.0/NIFI1.22.0/NIFI1.24.0/NIFI1.26.0_2024-06-11最新版本安装_采用HTTP方式_搭建集群_实际操作---大数据之Nifi工作笔记0050
查看>>
NIFI1.21.0_java.net.SocketException:_Too many open files 打开的文件太多_实际操作---大数据之Nifi工作笔记0051
查看>>
NIFI1.21.0_Mysql到Mysql增量CDC同步中_日期类型_以及null数据同步处理补充---大数据之Nifi工作笔记0057
查看>>
NIFI1.21.0_Mysql到Mysql增量CDC同步中_补充_插入时如果目标表中已存在该数据则自动改为更新数据_Postgresql_Hbase也适用---大数据之Nifi工作笔记0058
查看>>
NIFI1.21.0_Mysql到Mysql增量CDC同步中_补充_更新时如果目标表中不存在记录就改为插入数据_Postgresql_Hbase也适用---大数据之Nifi工作笔记0059
查看>>
NIFI1.21.0_NIFI和hadoop蹦了_200G集群磁盘又满了_Jps看不到进程了_Unable to write in /tmp. Aborting----大数据之Nifi工作笔记0052
查看>>
NIFI1.21.0_Postgresql和Mysql同时指定库_指定多表_全量同步到Mysql数据库以及Hbase数据库中---大数据之Nifi工作笔记0060
查看>>
NIFI1.21.0最新版本安装_连接phoenix_单机版_Https登录_什么都没改换了最新版本的NIFI可以连接了_气人_实现插入数据到Hbase_实际操作---大数据之Nifi工作笔记0050
查看>>
NIFI1.21.0最新版本安装_配置使用HTTP登录_默认是用HTTPS登录的_Https登录需要输入用户名密码_HTTP不需要---大数据之Nifi工作笔记0051
查看>>
NIFI1.21.0通过Postgresql11的CDC逻辑复制槽实现_指定表多表增量同步_增删改数据分发及删除数据实时同步_通过分页解决变更记录过大问题_02----大数据之Nifi工作笔记0054
查看>>
NIFI1.21.0通过Postgresql11的CDC逻辑复制槽实现_指定表多表增量同步_增加修改实时同步_使用JsonPath及自定义Python脚本_03---大数据之Nifi工作笔记0055
查看>>
NIFI1.21.0通过Postgresql11的CDC逻辑复制槽实现_指定表多表增量同步_插入修改删除增量数据实时同步_通过分页解决变更记录过大问题_01----大数据之Nifi工作笔记0053
查看>>
NIFI1.21.0通过Postgresql11的CDC逻辑复制槽实现_指定表或全表增量同步_实现指定整库同步_或指定数据表同步配置_04---大数据之Nifi工作笔记0056
查看>>
NIFI1.23.2_最新版_性能优化通用_技巧积累_使用NIFI表达式过滤表_随时更新---大数据之Nifi工作笔记0063
查看>>