Windows上使用virtualenv搭建Python+Flask开发环境

yipeiwu_com6年前Python基础

关于virtualenv:

VirtualEnv用于在一台机器上创建多个独立的Python虚拟运行环境,多个Python环境相互独立,互不影响,它能够:

1.在没有权限的情况下安装新套件
2.不同应用可以使用不同的套件版本
3.套件升级不影响其他应用
虚拟环境是在Python解释器上的一个私有复制,你可以在一个隔绝的环境下安装packages,不会影响到你系统中全局的Python解释器。

虚拟环境非常有用,因为它可以防止系统出现包管理混乱和版本冲突的问题。为每个应用程序创建一个虚拟环境可以确保应用程序只能访问它们自己使用的包,从而全局解释器只作为一个源且依然整洁干净去更多的虚拟环境。另一个好处是,虚拟环境不需要管理员权限。

安装Python 2.7
访问https://www.python.org/,进入下载页面,下载Python 2.7系列的WINDOWS版本。

安装之后需要把Python相关的路径加入到PATH环境变量中(假如安装在D:\Python27):

D:\Python27
D:\Python27\Scripts

安装setuptools(easy_install)

wget https://bitbucket.org/pypa/setuptools/raw/bootstrap/ez_setup.py
python ez_setup.py

安装virtualenv
使用easy_install命令安装virtualenv:

easy_install virtualenv

创建虚拟环境
纯净的虚拟环境:

virtualenv.exe venv

适用于所有软件包都使用PY软件包的场景。

混合虚拟环境:

virtualenv --system-site-packages venv

适用于有部分特殊软件包的场景,因为特定软件包在缺乏编译环境的情况下不能通过pip直接安装。

激活虚拟环境:

venv\Scripts\activate.bat

退出虚拟环境:

venv\Scripts\deactivate.bat

安装软件包
激活虚拟环境之后,使用pip命令安装软件包:

pip install package

package替换为软件包的名称。

软件包分为纯Python软件包和特殊软件包。

纯Python软件包是指完全使用Python编写的软件包,不需要编译环境,只需要执行pip install命令就可以完成安装。

特殊软件包是指大部分使用PY编写、某些特定部分使用C语言编写的、需要进行编译才能使用的软件包,不能通过pip install直接安装,需要编译环境支持。比如Mysql-Python(MySQLDb)、pycrypto等。特殊软件包一般会有WINDOWS的编译版本。

安装Flask

virtualenv.exe venv
venv\Scripts\activate.bat
pip install flask

 

相关文章

python 获取指定文件夹下所有文件名称并写入列表的实例

如下所示: import os import os.path rootdir = "./pic_data" file_object = open('train_list.txt','...

django框架如何集成celery进行开发

django框架如何集成celery进行开发

上一篇已经介绍了celery的基本知识,本篇以一个小项目为例,详细说明django框架如何集成celery进行开发。 本系列文章的开发环境: window 7 + python2.7...

Python使用ntplib库同步校准当地时间的方法

NTP(Network Time Protocol)是由美国德拉瓦大学的David L. Mills教授于1985年提出,设计用来在Internet上使不同的机器能维持相同时间的一种通讯...

疯狂上涨的Python 开发者应从2.x还是3.x着手?

疯狂上涨的Python 开发者应从2.x还是3.x着手?

纵观各大编程语言在 2017 年的发展情况,我们会发现涌现出诸如 Go、Swift 这类后起之秀,而其中最为耀眼的当属 Python。之所以 Python 如此受捧,不仅仅是人工智能、数...

pyspark.sql.DataFrame与pandas.DataFrame之间的相互转换实例

pyspark.sql.DataFrame与pandas.DataFrame之间的相互转换实例

代码如下,步骤流程在代码注释中可见: # -*- coding: utf-8 -*- import pandas as pd from pyspark.sql import Spar...