3. 网络请求:获取网页内容
import requests
# 获取网页内容
url = '需要获取的网页URL'
response = requests.get(url)
# 检查请求是否成功
if response.status_code == 200:
print(response.text) # 打印网页内容
else:
print(f'Failed to retrieve page. Status code: {response.status_code}')
解释
这个脚本使用Requests库获取指定URL的网页内容。如果请求成功(状态码为200),则打印网页内容,否则打印错误信息。这可以用于抓取网页数据、监视网站状态等。
假设你想定期检查某个新闻网站的最新消息,通过这个脚本,你可以自动获取页面内容,并分析其中的信息。
4. 简单的Web服务器
from http.server import SimpleHTTPRequestHandler, HTTPServer
class MyHandler(SimpleHTTPRequestHandler):
def do_GET(self):
self.send_response(200)
self.send_header('Content-type', 'text/html')
self.end_headers()
self.wfile.write(b"Hello, World!")
server = HTTPServer(('localhost', 8080), MyHandler)
print("Starting server on port 8080...")
server.serve_forever()
解释
这段代码创建了一个简单的HTTP服务器,当你访问根路径时会返回“Hello, World!”的HTML响应。适合用于测试和学习Web开发基础。
如果你需要一个临时网站来展示你的个人作品集,这个脚本可以很方便地搭建一个本地服务器。