当前位置 : python

标签 python 下的文章

Ddjango模板变量直接显示html代码的问题

模板变量的内容,如果含html的话,django的模板系统默认会对输出进行转义,比如把

转义成了<p> ,然后再显示出来的时候就如实地显示为

。要解决这个问题只要把默认的 转义去掉就好了。比如原本我们的模板代码是这样的:{{post.content}}

现在我们把它变成这样:

{% autoescape off %}
{{post.content}}
{% endautoescape %}

还有一种更简单的方法:

{{post.content | safe}}

这样就可以了~

===============================

显示前30个字

{{ bio | truncatewords:"30" }} 仅支持英文,以空格区分
{{ bio | slice:"30" }} 支持中文

wordpress文章采集器(python代码)

折腾了几天总算用python弄出了一个wordpress文章采集器,比起手工采集更新文章站点来说效率当然是不能比了。看了下采集2000篇文章,只用了20来分钟,如果是手工的话20分钟顶多也就更新百来篇文章。深刻体会到了科学技术是第一生产力。

  • 文章采集前:
  • 文章采集中
  • 文章采集后

这个wordpress文章采集器的思路是这样的:

  1. 先提供一个入口链接
  2. 程序会从入口页面出发逐页扫描抓取文章链接
  3. 由抓取的文章链接进一步抓取文章内容
  4. 将抓取的文章数据(标题、正文)等写入wordpress数据库

整个思路还是很明了的。在整个过程中,我犯过不少错误:

- 阅读剩余部分 -

python正则表达式匹配所有字符(包括换行符)

昨晚用python抓取一个网页时,写个正则表达式死活匹配不成功,检查了老半天总算想起了正则表达式中的‘.’(点符号)匹配的是除了换行符“n”以外的所有字符,而我要匹配的网页html代码中有一些换行符存在,所以就匹配不出来。

晚上睡觉的时候就想,正则表达式哪个符号是匹配所有字符(包括换行符)的?想了想貌似没有这个符号吧,,突然灵机一动想到了是否可以用‘[.s]+’进行匹配?早上一起来就试验了下,发现还是不行。按理说‘s’匹配空白字符,应该也包括换行符吧,和‘.’(点符号)配合应该可以匹配所有字符啊?这就想不通了,后面是换了几个角度解决正则表达式匹配所有字符(包括换行符)的问题的,解决方案如下:

- 阅读剩余部分 -

python连接数据库的一些错误及解决

今天在学校python连接数据库,对数据库进行读写操作,在这个实验中出现了一些问题,如下: 1. 在本次试验中盗雪犯过一个错误,一开始进行读写操作在调试中都没问题,查看脚本的运行结果也没问题,但数据库数据就是没变化,读写不能生效,找了会资料,最后才发现时没有调用连接的commit()方法,即本实验中的‘conn.commit()’,这个方法就是用来更新数据库的,千万不要忘了。我一开始的时候虽然进行了读写,但没有更新数据库,当然数据库数据还是原来的了,切记。 2. 犯的第二个错误是向数据库写入中文字符时出现乱码,检查了好久,总算找到了解决办法,即:连接数据库时记得设置charset参数为'utf8'编码( charset='utf8'),以免出现乱码。

- 阅读剩余部分 -

python使用MySQLdb模块操作数据库(查找、插入、修改、删除)

要想用python进行数据库的读写可以导入MySQLdb模块即可轻松搞定。

安装MySQLdb模块,自行百度

python交互模式下输入‘import MySQLdb’,如果没错误说明你已经安装过并安装成功MySQLdb模块,如果出现错误,请安装此模块,安装过程中的任何错误自行百度。

安装mysql

由于我是在本地调试,所以在本次试验中我直接在本地用WampServer带的phpMyAdmin创建了一个名为‘test’的数据库,并且新建了一个用户,用户名为‘wpuser’,密码:‘daoxuedobest’,这些参数在数据库连接时是需要的,所以在这里先记录下来。另外,在phpMyAdmin上建立一个名为‘wp_users’的表:如图:

现在进入实战环境,python对数据库的读写操作代码如下:

- 阅读剩余部分 -

python抓取网站链接

学python完全是因为它的高效,手里的项目主要还是一个人做着,是在有些力不从心,奈何一直没有合适的人手,目前也只能提高自己的工作效率了,所以瞄上了python。学了一阵子python,写点脚本练手。因后面项目可能需要采集一些文章,手工复制粘贴就太没意思了,这不,现在用python写的脚本代替手工获取一个网站的文章标题和对应链接,将结果保存在本地电脑,暂存为txt文件吧。

  1. 需要采集的文章是优米网上的一些文章,文章入口是:http://roll.umiwi.com/article/36/1.shtml,共有326页,326*20篇文章,手工的话工作量不是一般的大。

2.下面是python脚本采集代码:

- 阅读剩余部分 -