使用Google Code Playground免费在线编辑网页和Javascript在线调试

Google Code Playground

Code Playground
顾名思义,代码玩乐场,是Google提供的用于演示或试验Google提供的各种服务API,如:语言翻译,书籍搜索,视频搜索等。其中也包括在线编辑网页
在线编辑调试Javascript代码
。免费Free的。

通过Google提供的各种服务进行开发,可以把写的代码粘贴到"Edit Code"窗口,然后点击“Output”窗口右上角的“Run Code”直接来运行看看效果。地址:http://code.google.com/apis/ajax/playground/

Google Code Playground来作为免费的网页在线编辑器只是其中很小的一部分功能,但却比很多号称专业的免费在线网页编辑好多了。

    * Language
    * Blogger
    * Blog Search
    * Book Search
    * Calendar
    * Earth New Samples!
    * Feeds New Samples!
    * Friend Connect
    * Image Search
    * Javascript
    * Libraries
    * Local Search
    * Maps
    * Maps V3 New Samples!
    * News Search
    * Patent Search
    * Search
    * Video Search
    * Visualization
    * Web Search
    * YouTube

目前Google Code Playground已经提供上诉的那么些接口了

谷歌产品收集

 

谷歌产品的很多,有的真的没有听说过,你有多少个没有听说过的谷歌产品呢?

必备

01.谷歌阅读器(Google Reader):网页版RSS阅读器,方便订阅,组织和分享新闻。有手机版。
02.个性化主页(iGoogle):显示Gmail,日历,天气,新闻等等,多模板。
03.谷歌相册服务(Google Picasa):提供照片的下载和编辑软件,用这个软件Email,上传,张贴照片到博客,也可以直接使用网络相册。
04.谷歌文件(Google Docs):您不再需要桌面版的Office了,这个是谷歌的在线Office,你可以创建,发布,共享和协作在线文档和幻灯。
05.谷歌记事本(Google Notebook):剪贴文本,图片和链接页面,可以保存,检索或共享。
06.谷歌桌面(Google Desktop):桌面搜索,可以搜索你电脑里的电子邮件,计算机文件,音乐,照片,聊天和Web历史记录,和iGoogle类似,也安装小工具。

地图和旅游

07.谷歌搭车(Google Ride Finde)r:交通搭乘查询服务,通过这个搜索工具,利用GPS数据钩,通过Google地图,在14个美国城市连接出租车,轿车和公共汽车的搭车搜索。
08.谷歌公交(Google Transit): 使用Google地图,告诉谷歌你在哪,要到哪,谷歌帮助你安排公共交通线路方案。
09.谷歌火星(Google Mars):和谷歌地球类似,只是这个是火星而已。
10.谷歌天空(Google Sky):在不夜城也可以看星星,你可以通过虚拟的太空望远镜,看行星,恒星,星系,卫星等等。
11.谷歌地球(Google Earth): 下载一个吧,你就什么都知道了。

网站浏览和开发

12.谷歌3D建模(Google SketchUp):简单而有效的3D工具,Mac和PC都可以使用,建筑师,土木工程师,设计师,甚至是游戏开发商的方便工具。允许用户上传他们的模型到谷歌地球。
13.谷歌支付(Google Checkout): 谷歌的支付宝,目前中国没有开通。
14.谷歌网络加速器(Google Web Accelerator):类似于CDN的加速服务,利用谷歌在全球的服务器,缓存网站,让你访问速度倍增。
15.FeedBurner:转烧你的Feed,便于订阅,不怕当机。
16.搜索历史(Google Web History):记录你的网页浏览记录,以供你搜索。
17.谷歌Base:可以存储文字,图片文件和网页的数据库,搜索结果显示在网页搜索,谷歌地图和产品搜索。
18.自定义搜索引擎(Google Co-Op): 完善和分类搜索查询,创建定制的搜索引擎,搜寻专门信息。
19.谷歌应用引擎(Google App Engine): 谷歌的云计算服务,相当于一种虚拟服务器,目前仅仅支持Python。
20.谷歌网站优化器(Google Website Optimizer):检查您的网站,测试网站内容,帮助您创建最有效和最有利可图的广告,创造友好的界面,增加转换率。
21.谷歌浏览器同步(Google Browser Sync): 通过互联网,同步FireFox的密码,书签,历史,标签,窗口到另外的电脑。
22.谷歌点击电话(Google Click-to-Call): 这个是一个搜索结果页的广告系统,你可以免费打电话个做广告的公司,至少是谷歌付钱。你输入i的电话号码,你就可以和广告商通话。
23.谷歌页面生成器(Google Page Creator): 简单的个人网页,提供简单的网页编辑器,100M空间,多种模板,有点象傻瓜建站。

社会化网络和通讯

24.Orkut社区:很红的巴西和印度社区,美国不流行。
25.Android手机操作系统:基于Linux的手机操作系统。
26.发短信到收集(Google Send to Phone):通过FireFox插件发短信给自己。
27.谷歌分享(Google Shared Stuff): 分享网页给好友,可以整合到Facebook和del.icio.us。
28.GTalk(Google Talk): 谷歌的聊天软件,在Gmail里面也可以用。
29.Dodgeball手机社区:在美国的22个城市,你可以知道你的朋友在哪里,朋友也知道你,可以要他们来找你。
30.连接朋友(Google Friend Connect): 可以让用户方便地为网站添加社会化网络功能,就像Facebook和Orkut,无需很深的编程技术。
31.谷歌呼叫中心(Google GrandCentral): 用户只要一个电话号码,换手机、搬家、换工作,还是可以继续用原来的号码。
32.谷歌网站(Google Sites): 快速建立网站,分享包括团队项目、公司内部网、社区团体、教室、俱乐部、家庭等信息,可以分享给几个人、一群人或所有人。

个性搜索工具

33.谷歌学术搜索(Google Scholar): 面向学术资源的免费搜索工具,能够帮助用户查找包括期刊论文、学位论文、书籍、预印本、文摘和技术报告在内的学术文献,内容涵盖自然科学、人文科学、社会科学等多种学科。
34.谷歌专利搜索(Google Patent Search):搜索到所有美国的专利,包括专利的详细介绍,图片信息,专利号,发明人,以及申请日期与有效期。
35.谷歌预测搜索(Google Sets):用户提交一个搜索关键字之后,它可以把相关的关键字列出来,为用户的搜索提供相关提示!
36.谷歌邮购搜索服务(Google Catalogs): 不用在往垃圾桶里扔废纸了。
37.谷歌数字搜索(Google Search by Number):输入区号,快件号,就能整合到结果。
38.谷歌盲人搜索(Google Accessible Search)
39.谷歌趋势(Google Trends)
40.谷歌图书搜索(Google Book Search)
41.谷歌新闻档案搜索(Google News Archive Search):搜索老新闻。
42.谷歌特殊搜索(Google Special Searches):搜索范围很小的搜索,比如政府,公共服务,微软,苹果等等。

多种谷歌工具

43.谷歌软件包(Google Google Pack):包括Desktop,Picasa,Toolbar,谷歌地球,Gtalk,Firefox, Adobe Reader, Skype和StarOffice。
44.谷歌小工具(Google Gadgets): 和iGoogle和Desktop配合使用。
45.谷歌拼音输入法(Google Pinyin IME)
46.谷歌图片标注器(Google Image Labeler):很象游戏,用户用文字来标注图片,帮助谷歌改善搜索结果。
47.谷歌代码搜索(Google Code Search)。
48.谷歌新闻通知(Google Alerts): 告诉谷歌你喜欢什么新闻,谷歌每天Email给你。
49.谷歌(Google Apps): 把谷歌的服务建立在自己的域名上,比如Gmail,GTalk,Docs等等。
50.谷歌114(GOOG-411): 谷歌的话务员人肉搜索,只对加拿大和美国开放。
51.谷歌手机网站生成器(Google Moblizer):一分钟建立你的网站的手机版,无需注册。
52.谷歌(Google Gears):HTML5的一个插件,让网页服务桌面化。

第三方工具

53.简易谷歌(Simply Google):把所有的谷歌特殊搜索都放在一个页面内。
54.谷歌IM搜索器(Googlematic):用AIM和MSN来搜索。
55.谷歌尝鲜(Goofresh): 搜索最新网页,包括今天,昨天,本周,本月的最新网页。
56.谷歌大厨(Cooking With Google):你冰箱里有些原料,不知道怎么搭配烹饪,问谷歌吧,一切OK。
57.谷歌多语言搜索(Babelplex): 同时输入29个语言的搜索结果页,很变态,很无聊。

网站外链建设策略

在做友情链接的时候,如何检测对方的网站,看是否符合自己的标准并且没有被k过呢?

做搜索引擎优化(SEO), 外部链接建设当中提到比较多的就是链接的相关性的说法,毕竟呢,你的这些外部链接大部分是做给搜索引擎看的,而搜索引擎是靠蜘蛛程序来抓取得。
  记住,“蜘蛛”是个抓取“程序”,不是“人工智能”。他不会用人类的判断逻辑来判断相关性,而是一些“逻辑程序”,毕竟蜘蛛程序并不复杂(对比来 说)。
  明白了上述情况,我来说说我自己对“相关性”的看法和建设心得,不对之处,还请大家指正。
——你的网页和你网页中的内容相关性,在蜘蛛程序中的判断:——
     假设你的网页是新的网页,刚做了不到2天,刚提交,蜘蛛根据”抓取索引”,过来抓取(或通过其他形式的链接)。
  首先,蜘蛛通过各种连接来到了你的网页,对于他来说,新的网页特征就是从网页代码中的<head>部分中的<title>标 签里的元素来判断的。
     假设蜘蛛来到的你这个网页,抓取了网页中的<title>文字:我的动漫论坛 -新动漫 – 动漫新主张!
     蜘蛛首先会以抓取<title>中的文字做为“关键词”为参考,然后去从网页代码中去寻找相关的“关键词”。
     你可以放心,蜘蛛可以判断一些JS代码和页面中的标签,他会比较重视正文和div块中的标题部分的“关键词”,也就 是<h1>-<h4>一系列的。这也可以验证大家说的,为什么<h1>-<h4>中的内容,会比其 他<body>中的文本内容权重高的原因。然后蜘蛛会把<tilte>中在正文<body>部分重复次数最多的词, 定为“参考关键词”(当然了,有个重复限度,搜索引擎会设定并嵌入蜘蛛程序里)。
     然后蜘蛛自己也会根据“参考关键词”判断“关键词扩展”(根据搜索引擎的相关类的常用数据关键词和title中关键词分析对比),综合以上,确定大体的 “关键词”,做为下一步页面抓取的参考。
  下一步,蜘蛛会计算(这个简单的数据计算功能还是有的)所有关键词在网页代码中出现的数量,作为基数。然后计算<body>标签中“关键 词”的数量,作为分子(汗,想不出什么词了,通俗第一)。然后一除,就得出了你这个页面的关键词密度。
  密度出来了以后,搜索引擎自己会有个标准判断(人为设计的参数),有个等级,?-?是最合理的,?—?是一般的,?—?是最差的,这个标准时刻在变, 总之是根据一段时期的数据进行调整的(就是让你隔段时间闹一回心)。
     好了,密度的判断出来后,进行本页的关键词差别对比。
        以<tilte>中的关键词为基础,综合了“扩展关键词”的参考,对比在<body>部分中抓取的“关键词”,对比他们每 个文字上的差别。(比如搜索引擎定下的关键词为“动漫”,而<body>文本中有:动漫论坛,新动漫-等等),差别也分个等级,差别不大的, 成为了长尾关键词,差别大的,就被舍弃做为这个页面的搜索关键词,这个和“关键词密度”判断方法相同。 这样,页面长尾词和搜索关键词就确定了下来~
  当密度和页面关键词差别这2项得到了2个结果后,会有个权数加的计算公式(引擎自己定的,也定期根据数据调整),得出一个对“相关性”的得分(类似 baidu指数的算法),从而判断页面的关键词,确定页面内容和关键词的相关性联系程度。
  页面的关键词和页面内容的相关性就这么得出来的。
  那么,外部链接的相关性怎么判断?好,下面谈谈,进入第2部分
--外部连接和网页相关性的判断:--
单向链接:
  他网页链接到你的网页的链接。
  在他的网页上,你网站的链接锚文字描述必须是和他链接到你的这个页面的关键词相关,或相近,蜘蛛的判断方法和第一部分一样,只不过起始的“关键词”参 考,变成了在他网页上,你的网页的链接錨文字。
  话说回来,这个网页的相关性和你的网站有多高,这个蜘蛛怎么判断?
  这个链接锚文字就成了桥梁和参考。
关系可以理解为这样:
————————
你的网页的关键词VS(相关度判断,设为A)→ 锚文字(为链向你的网页上的 锚文字)←(相关度判断,设为B)他的网页的关键词
PS:判断A和B的方法,参考第一部分:你的网页和你网页中的内容相关性,在蜘蛛程序中的判断。
————————
  A和B得出之后,进行对比,差值在一定范围内,蜘蛛会有个等级标准(人为设定)。比如A和B差10%以内,为相关度最高,2个网页权重增加,增加为一 个权数的算式结果(可能只是对网页的质量有影响,排名的影响不太清楚,待观察);10%-15%……..等等,我就不写了。
友情链接:
     涉及到2个页面上的锚文字,方法大同小异。
————————
你的网页的关键词VS(相关度判断,设为A)→ 锚文字(其中一个网页上的锚 文字)←(相关度判断,设为B)他的网页的关键词
你的网页的关键词VS(相关度判断,设为C)→ 锚文字(另一个网页上的锚文 字)←(相关度判断,设为D)他的网页的关键词
————————
A和B 对比得出一个权数算式结果:E ;
C和D 对比得出一个权数算式结果:F
E和F 最后进行对比,得出最后的权数算式结果。
  从而判断2个网页在交换链接中,2个网页的相关性判断。
    以上就是做seo链 接的策略。

11款实用的一句话网站设计代码

 

整理了一些比较实用的网站设计时常用的代码代码很简单,只有一行,不需要理解高深的JS或者HTML知识,按照提示把相应的代码加入到网页模板中即可得到你想要的效果。

1:进入网页淡入淡出的效果。

<meta http-equiv="Page-Exit"; content="blendTrans(Duration=1.0)">

在头部head之间加入此代码,你会发现点击链接的时候,网页现实的是淡入淡出的效果。此代码含义如下:Page-Exit”(离开网页)、”Site-Enter”(进入站点)、”Site-Exit”(离开站点)其中”Duration=1.0″可以设定每个周期时间久,单位是秒(现在设置的是每周期1秒)。 

2:把滔滔(微博客)完美放到你的博客中。试用于各种程序言。演示见本站公告.红色部分注意事项:改成你的QQ号。 1就是只显示一条信息。这是JS文件路径下载地址://sjolzy.cn/content/uploadfile/dkapi.js

<script type="text/javascript">var taotao_qq=409124564; var taotao_num=1;var taotao_type=0;</script><script type="text/javascript" charset="utf-8" src="reed/dkapi.js"></script>


3:彻底屏蔽鼠标右键。此段代码加入<body>区域

<body   oncontextmenu="window.event.returnValue=false">  

4: 此段代码加入<body>区域将取消选取、防止复制。

<body   onselectstart="return   false">

5:不准粘贴。 此段代码加入<body>区域

<body   onpaste="return   false"> 

6:防止网站被扒皮。如何防止网站被扒皮呢?加入以下代码就可以了,网页将不能被另存为 

<noscript><iframe   src="/blog/*.html>";</iframe></noscript>

7:脚本永不出错,如果您的浏览器提示您的网址JS脚本出错,但检测了一遍没发现错误,就可以使用一下代码:  


  <SCRIPT   LANGUAGE="JavaScript"><!--   Hide nction" title="function">function   killErrors()   {return   true;} window.onerror   =   killErrors; //   --> </SCRIPT>

8:在规定时间内跳转,意思就是5秒后自动跳转到该页面下,适合做404网页。  

<META  http-equiv=V="REFRESH"  content="5;URL=//sjolzy.cn">

9:可防止复制,此段代码加入<body>区域

<body oncopy="return   false;"   oncut="return   false;" > 

10. 防止被人frame。例:有些网址导航站收录您的网址之后,不会直接跳转到你的网站,而是加载到他的网页中,这样不会给你的网站产生任何IP和PV。如果您不希望这样,那么请加入此段代码

<SCRIPT  LANGUAGE=JAVASCRIPT><!-- if (top.location != self.location)top.location=self.location;// --></SCRIPT>

11:页面自动刷新,把如下代码加入 <head> 区域中 其中20指每隔20秒刷新一次页面. 可用户增加文章点击率,这是作弊行为。

<meta http-equiv= "refresh " content= "20 "> ,

自己写一个网络爬虫蜘蛛程序

 

这里是维基百科对网络
爬虫的词条页面
网络
爬虫以叫网络
蜘蛛
网络
机器人,这是一个程序
,其会自动的通过网络
抓取
互联网
上的网页
,这种技术
一般可能用来检查你的站点上所有的链接是否是都是有效的。当然,更为高级的技术
是把网页
中的相关数据
保存下来,可以成为搜索引
擎。

从技相来说,实现抓取
网页
可能并不是一件很困难的事情
,困难的事情
是对网页
的分析和整理
,那是一件需要有轻量智能,需要大量数学计算的程序
才能做的事情
。下面一个简单的流程:


在这里,我们只是说一下如何写一个网页
抓取
程序

首先我们先看一下,如何使用
命令
行的方式
来找开网页

telnet somesite.com 80
GET /index.html HTTP/1.0
按回车两次

使用
telnet就是告诉你其实这是一个socket的技术
,并且使用
HTTP的协议,如GET方法
获得
网页
,当然,接下来的事你就需要解析HTML文法,甚至还需要解析Javascript,因为现在的网页
使用
Ajax的越来越
了,而很
网页
内容
都是通过Ajax技术
加载
的,因为,只是简单地解析HTML文件
在未来会远远不够。当然,在这里,只是展示一个非常简单的抓取
,简单到只能做为一个例子,下面这个示例
的伪代码

网页


for each 链接 in 当前网页

所有的链接
{
if(如果本链接是我们想要的 || 这个链接从未访问过)
{
处理对本链接
把本链接设置

为已访问
}
}
require “rubygems”
require “mechanize”

class Crawler < WWW::Mechanize

attr_accessor :callback
INDEX = 0
DOWNLOAD = 1
PASS = 2

def initialize
super
init
@first = true
self.user_agent_alias = “Windows IE 6″
end

def init
@visited = []
end

def remember(link)
@visited << link
end

def perform_index(link)
self.get(link)
if(self.page.class.to_s == “WWW::Mechanize::Page”)
links = self.page.links.map {|link| link.href } - @visited
links.each do |alink|
start(alink)
end
end
end

def start(link)
return if link.nil?
if(!@visited.include?(link))
action = @callback.call(link)
if(@first)
@first = false
perform_index(link)
end
case action
when INDEX
perform_index(link)
when DOWNLOAD
self.get(link).save_as(File.basename(link))
when PASS
puts “passing on #{link}”
end
end
end

def get(site)
begin
puts “getting #{site}”
@visited << site
super(site)
rescue
puts “error getting #{site}”
end
end
end

上面的代码
就不必
说了,大家可以去试试。下面是如何使用
上面的代码

require “crawler”

x = Crawler.new
callback = lambda do |link|
if(link =~/\\.(zip|rar|gz|pdf|doc)
x.remember(link)
return Crawler::PASS
elsif(link =~/\\.(jpg|jpeg)/)
return Crawler::DOWNLOAD
end
return Crawler::INDEX;
end

x.callback = callback
x.start(”http://somesite.com”)

下面是一些和网络
爬虫相关的开源网络
项目

如何在php中判断一个网页请求是ajax请求还是普通请求

 

如何在php中判断一个网页请求是ajax请求还是普通请求?你可以通过传递参数的方法来实现,例如使用如下网址请求:

/path/to/pkphp.com/script.php?ajax

在php脚本中使用如下方法判断:

if(isset($_GET['ajax'])) {

...这是一个ajax请求,然后...

}

else {

...这不是一个ajax请求,然后...

}

通过传递_GET参数的方法简单实现了网页请求的判断。但是如果需要这样的功能,这个方法可能就有弊端,功能需求如下:

1.通过ajax请求的网页与普通请求的网页内容是不相同的

2.通过ajax请求的网页是为了方便用户操作,两种方法请求打开的网页必须的内容是相同的,只是ajax请求到的网页内容比较简化和使用,去除了网页的大框架模板。

3.这么做的目的是:用户在网页操作时通过ajax实现,而搜索引擎访问网页时(相当于普通打开网页),得到的内容是一个完整的网页(包含了网页的大框架模板)。

要完成上面的这个功能,就不能使用前面介绍的通过GET参数传递来判断了,如果使用GET传递来判断的话,用户ajax请求和普通网页请求都会是一样的内 容,因为你不可能为一个链接设置一个带ajax判断参数和不带的URL。那么如何才能实现这个功能呢?必须通过服务器端PHP判断解决这个问题。也就是今 天要说的PHP如何判断ajax请求。这个问题要解决有一个先决条件,那就是你使用的ajax框架必须是jquery。在jquery框架中,对于通过它的$.ajax, $.get, or $.post方法请求网页内容时,它会向服务器传递一个HTTP_X_REQUESTED_WITH的参数,你可以利用如下方法判断某个请求是ajax请求还是普通请求:

if(isset($_SERVER['HTTP_X_REQUESTED_WITH']) && strtolower($_SERVER['HTTP_X_REQUESTED_WITH']) == 'xmlhttprequest')

 

{

 

..这是一个ajax请求,然后...

 

}

 

else {

 

..这不是一个ajax请求,然后...

 

}

 

if(isset($_SERVER['HTTP_X_REQUESTED_WITH']) && strtolower($_SERVER['HTTP_X_REQUESTED_WITH']) == 'xmlhttprequest')if(isset($_SERVER['HTTP_X_REQUESTED_WITH']) && strtolower($_SERVER['HTTP_X_REQUESTED_WITH

{

...这是一个ajax请求,然后...

}

else {

...这不是一个ajax请求,然后...

}

利用这个来进行判断操作,可以使网页端的URL保持一致,但是能够对两种不同的请求却能够得到不同内容的网页。即实现了用户操作优化,又不影响搜索引擎收录,我觉得是一个很棒的解决方案!

这里有一个另外需要注意的问题,就是如果你的jquery请求是通过iframe打开网页的,那么HTTP_X_REQUESTED_WITH参数不会被传递,也就是说你没有办法判断请求的类型。