sublime text2 的使用

摘要:
第一步:官方下载sublimetext2并安装,下载地址:http://www.sublimetext.com/2;第二步:安装包管理器,也就是:PackageControl方法:1、在SublimeText2的目录里面找到Data˃InstalledPackages的文件夹(如没有请手动新建)2、在这里下载PackageControl.sublime-package文件3、将下载到的文件放进去I

第一步:官方下载sublime text2并安装,下载地址:http://www.sublimetext.com/2;

第二步:安装包管理器,也就是:Package Control

方法:1、在 SublimeText2 的目录里面找到 Data > Installed Packages 的文件夹 (如没有请手动新建)

2、在这里下载Package Control.sublime-package文件

3、将下载到的文件放进去 Installed Packages 里面

4、重新启动 Sublime Text 即可如果 Package Control 已经安装成功,那么 Ctrl+Shift+P 调用命令面板,我们就会找到一些以“Package Control:”开头的命令,我们常用到的就是几个 Install Package (安装扩展)、List Packages (列出全部扩展)、Remove Package (移除扩展)、Upgrade Package (升级扩展)。但如果你按照上面的方法确实搞不定,可以试试按键盘 Ctrl+~ (数字1左边的按键)调出控制台,然后拷贝下面的代码进去并回车,它会自动帮你新建文件夹并下载文件的,与上面的方法最终效果是一样的:

import urllib2,os; pf='Package Control.sublime-package'; ipp=sublime.installed_packages_path(); os.makedirs(ipp) if not os.path.exists(ipp) else None; urllib2.install_opener(urllib2.build_opener(urllib2.ProxyHandler())); open(os.path.join(ipp,pf),'wb').write(urllib2.urlopen('http://sublime.wbond.net/'+pf.replace(' ','%20')).read()); print 'Please restart Sublime Text to finish installation'

第三步:在命令面板输入 “Package Control: Install Package“即会列出全部可以安装的扩展(必需连接网络),快捷键是ctrl+shift+p;

第四步:现在我们就可以随意的安装插件了,举例安装JsFormat:

使用 Ctrl+Shift+P 调用命令面板,输入“Package Control: Install Package”(安装扩展包),在插件列表中选择安装“JsFormat”(可以输入字符过滤),待提示成功之后即已完成安装。

随便打开一个js文件(最好是换行、对齐特别凌乱的那种),按下 Ctrl+Shift+P 调用命令面板,你会发现已经多了一项命令叫做“Format: Javascript”,快捷键ctrl+alt+f,即可以立即format。

推荐安装的插件(补充中。。。):

1、emmet,ZenCoding:可以超快速编写HTML文件

2、JsFormat 快速格式话代码的插件

3、Sublime CodeIntel,它提供了很多IDE提供的功能,例如代码自动补齐,快速跳转到变量定义,在状态栏显示函数快捷信息等。

免责声明:文章转载自《sublime text2 的使用》仅用于学习参考。如对内容有疑问,请及时联系本站处理。

上篇静态库与动态库微信公众号中ip白名单用谁的ip下篇

宿迁高防,2C2G15M,22元/月;香港BGP,2C5G5M,25元/月 雨云优惠码:MjYwNzM=

相关文章

python获取知乎日报另存为txt文件

前言 拿来练手的,比较简单(且有bug),欢迎交流~ 功能介绍 抓取当日的知乎日报的内容,并将每篇博文另存为一个txt文件,集中放在一个文件夹下,文件夹名字为当日时间。 使用的库 re,BeautifulSoup,sys,urllib2 注意事项 1.运行环境是Linux,python2.7.x,想在win上使用直接改一下里边的命令就可以了 2.bug是在...

转: python requests的安装与简单运用

requests是Python的一个HTTP客户端库,跟urllib,urllib2类似,那为什么要用requests而不用urllib2呢? 官方文档中是这样说明的: python的标准库urllib2提供了大部分需要的HTTP功能,但是API太逆天了,一个简单的功能就需要一大堆代码。插播个好消息!刚看到requests有了中文翻译版,建议英文不好的看看...

python 网络爬虫(二)

一、编写第一个网络爬虫 为了抓取网站,我们需要下载含有感兴趣的网页,该过程一般被称为爬取(crawling)。爬取一个网站有多种方法,而选择哪种方法更加合适,则取决于目标网站的结构。 首先探讨如何安全的下载网页,让后介绍3中爬去网站的常见方法: -- 爬取网站地图; -- 遍历每个网页的数据库 ID; -- 跟踪网页链接; 1、下载网页 要想爬取网页,我们...

Python 爬虫入门(二)—— IP代理使用

上一节,大概讲述了Python 爬虫的编写流程, 从这节开始主要解决如何突破在爬取的过程中限制。比如,IP、JS、验证码等。这节主要讲利用IP代理突破。   1.关于代理   简单的说,代理就是换个身份。网络中的身份之一就是IP。比如,我们身在墙内,想要访问google、u2b、fb等,直接访问是404,所以要换个不会被墙的IP,比如国外的IP等。这个就...