保护用户Web隐私 HTTP referrer header是如何做到的?

Firefox 26测试版已经修改了referer header来保护用户隐私。那么,现有的referer header有什么问题,这一改变将对用户隐私有何影响?我们的开发人员是否应该考虑修改我们的referer header?

Michael Cobb:HTTP referrer是可选HTTP header字段,它是由Web浏览器发送到Web服务器作为HTTP资源请求(例如网页)的一部分;它包含网页的地址,链接到所请求的资源。例如,如果用户点击了SearchSecurity主页(
http://searchsecurity.techtarget.com/)的超链接将他们带到
http://www.computerweekly.com/,HTTP referrer的内容将会是
http://searchsecurity.techtarget.com/。记录这一信息可以让网站管理员分析其网站访客的来源,因为他们可以通过查看referer信息了解请求来自何处。

然而,网页的网址可能不只是包含网页本身的地址,还可能包含查询字符串、用户名和其他数据(个人或敏感信息)。例如,Healthcare.gov网站被发现在其refererheader中发送个人数据到谷歌的数据分析服务、Twitter、Facebook和多个在线广告提供商,这些数据包括邮政编码、收入水平、吸烟状况和怀孕状况。

由于referer信息可能引起隐私问题,现在有很多方法来阻止或更改referer字段的内容。有些代理和防火墙软件还可筛选referer信息,或仅提供该网站的顶层地址。各种浏览器插件和安全软件也可以操作HTTP请求以在referer字段发送空白或不准确的数据,而Firefox还允许在请求header中关闭referer字段。Mozilla也已经开始在Firefox 36测试版中试用新的meta标签—meta referrer,以通过更改referer header来保护其用户的隐私。这允许HTML文档指定一个或多个referer政策来更改Firefox发送referer header的方式,例如剥出路径、查询字符串和其他数据片段,或完全阻止它。

然而,阻止或操纵refererheader可能会导致问题;有些Web服务器会阻止其部分网站到浏览器,而不会发送预期的referer信息,以试图阻止深层链接或对图像的未经授权访问。尽管这是验证HTTP请求来源的不可靠的方式,但有些网站在使用referer信息来保护其内容,仅允许对来自受批准网页的用户的访问。

我们需要有更好的方法来refer网站以控制referer字段中传输的数据量,并提供更统一的包含较少隐私信息的referer信息。HTML5支持rel属性值“noreferer”,其中规定,如果用户使用以下超链接,浏览器不应该发送HTTP referrer header:<a href="
http://searchsecurity.techtarget.com/" rel=" noreferrer"> SearchSecurity</a>

W3C Referer政策草案还推出了新的referer指令,允许网站管理网设置各种referer政策让浏览器的遵循。虽然所有这些举措允许网站管理员在用户遵循其网页的超链接时更容易控制referer字段的内容,但除非浏览器和Web开发人员全面支持将这些政策纳入其网站设计,否则保护用户隐私的有效性无法保障。例如,用户无法控制Do Not Trackheader请求是否受支持。

企业应该在refererheader发送时间以及它们包含什么以确保敏感数据不被泄露方面,应该检查器用户的浏览器的配置情况。网站管理员还应该检查当其网页的链接被点击时,发送哪些referer信息。如果其中包含任何类型的敏感信息,那么企业应该重新审查超链接的架构以保护访客的隐私。

举报

猜你喜欢

金三银四面试题:HTTP协议 和 HTTPS协议有什么区别?#软件测试 #软件测试工程师 #程序员 #求职 #知识分享
01:02
金三银四面试题:HTTP协议 和 HTTPS协议有什么区别?#软件测试 #软件测试工程师 #程序员 #求职 #知识分享
冷门佳作,烧脑犯罪,也许是近年最好的黑客电影#宅家dou剧场 #悬疑 #烧脑推理
05:43
冷门佳作,烧脑犯罪,也许是近年最好的黑客电影#宅家dou剧场 #悬疑 #烧脑推理
前端工程师入门系列-阿里百秀-header 区域响应式制作
08:47
前端工程师入门系列-阿里百秀-header 区域响应式制作
Python 爬虫代码示例,使用 requests 和 BeautifulSoup 库来爬取网页内容并提取数据。这个代码适合初学者学习和使用。 示例:爬取 Wikipedia 表格数据 import requests from bs4 import BeautifulSoup import pandas as pd  def fetch_page(url):     """发送 HTTP 请求并获取网页内容"""     try:         headers = {           "User-Agent": "Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/91.0.4472.124 Safari/537.36"         }         response = requests.get(url, headers=headers, timeout=10)         response.raise_for_status()  # 检查请求是否成功         return response.text     except requests.exceptions.RequestException as e:         print(f"请求失败: {e}")         return None  def parse_table(html):     """解析 HTML 并提取表格数据"""     soup = BeautifulSoup(html, "html.parser")     table = soup.find("table", {"class": "wikitable"})  # 查找第一个表格     if not table:         print("未找到表格")         return None      # 提取表头     headers = []     for th in table.find_all("th"):         headers.append(th.text.strip())           rows = [] #python ##别怪我没提醒你
01:43
Python 爬虫代码示例,使用 requests 和 BeautifulSoup 库来爬取网页内容并提取数据。这个代码适合初学者学习和使用。 示例:爬取 Wikipedia 表格数据 import requests from bs4 import BeautifulSoup import pandas as pd def fetch_page(url): """发送 HTTP 请求并获取网页内容""" try: headers = { "User-Agent": "Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/91.0.4472.124 Safari/537.36" } response = requests.get(url, headers=headers, timeout=10) response.raise_for_status() # 检查请求是否成功 return response.text except requests.exceptions.RequestException as e: print(f"请求失败: {e}") return None def parse_table(html): """解析 HTML 并提取表格数据""" soup = BeautifulSoup(html, "html.parser") table = soup.find("table", {"class": "wikitable"}) # 查找第一个表格 if not table: print("未找到表格") return None # 提取表头 headers = [] for th in table.find_all("th"): headers.append(th.text.strip()) rows = [] #python ##别怪我没提醒你
手把手带你实现 http header的kv存储
99:03
手把手带你实现 http header的kv存储
java语言的接口自动化测试:第51讲,带有headers信息
06:27
java语言的接口自动化测试:第51讲,带有headers信息
nmap使用脚本扫描web服务器,获取HTTP头组成
01:21
nmap使用脚本扫描web服务器,获取HTTP头组成