用chatGPT开发项目:我想的无人的智慧树网站 流量之神 利用人工智能的算法将人吸引住 GPT4是不是越来越难用了,问一下就要证明一下自己是不是人类

广度发散:让AI给出时代或今日或你关注的热点事件

比如采集新闻头条,根据内容或标题,以不同的角度,或各种人群的角色,生成50篇简短的文章。一下就能占传统的搜索引擎。这是AI最擅长的【千人千面,海量生成】。

2022年,根据MIT Technology Review的报道,十大科技大事件如下:

  1. 密码的终结:新的认证方式,如通过电子邮件发送的链接、推送通知或生物识别扫描,正在取代传统密码,提供更简便、更安全的访问方式【12†来源】。

  2. 新冠病毒变种追踪:先进的基因组测序和全球监测能力改善了对新冠病毒变种的追踪和识别【13†来源】。

  3. 长效电网电池:基于铁的电池作为电网储能的更便宜、更实用的选择,支持着日益增长的可再生能源使用【14†来源】。

  4. 蛋白质折叠的人工智能:AI系统AlphaFold2在蛋白质结构的理解上取得了重大进展,这对各种疾病的药物设计至关重要【15†来源】。

  5. 疟疾疫苗:世界卫生组织批准了一种新的疟疾疫苗,这是针对寄生虫感染的首个疫苗,每年可以挽救成千上万的生命【16†来源】。

  6. 权益证明:这种验证加密货币交易的新方法比传统方法更节能,大幅减少了电力消耗【17†来源】。

  7. 针对新冠的药物:辉瑞公司开发出针对新冠病毒的有效药物,包括新的变种,为最终结束大流行提供了可能的途径【18†来源】。

  8. 实用的聚变反应堆:磁技术的突破使无限、无碳电力的聚变能源成为可能,逐步接近现实【19†来源】。

  9. 人工智能的合成数据:公司正在创建合成数据以训练AI,旨在避免数据混乱、偏见和隐私问题【20†来源】。

  10. 碳移除工厂:在冰岛开设的全球最大碳移除工厂,是减少大气中二氧化碳以缓解气候变化的一步【21†来源】。

这些突破代表了从能源和医疗保健到人工智能和环境保护等多个领域的重大进展。

深度发散:像智慧树一样发散 不断的长出新枝和新叶子。也有点像爬虫。

根据内容或标题生成的二级内容当成新的热点的再生成50篇简短的文章。就这样迭代。深度也有了。

“密码的终结” 是指在数字安全领域,传统的密码输入方式正在被更先进、更安全的认证方法所取代。这一变化主要得益于以下几个方面的技术进步:

  1. 多因素认证(MFA):这种方法结合了多种身份验证手段,如密码、手机上的认证应用或推送通知,以及生物识别等。MFA增加了安全性,因为即使其中一个认证因素被泄露或破解,其他因素仍然可以阻止未授权访问。

  2. 生物识别技术:生物识别技术使用独特的生理或行为特征来验证用户的身份,如指纹、面部识别、虹膜扫描甚至是心跳模式。生物识别提供了一种便捷且难以伪造的身份验证方式。

  3. 基于移动设备的认证:随着智能手机的普及,许多系统现在使用手机作为身份验证工具。例如,系统可能会发送一次性密码(OTP)到用户的手机,或者通过推送通知要求用户确认登录尝试。

  4. 硬件安全密钥:这些小型物理设备(如YubiKey)可以插入计算机或通过NFC与手机连接。它们生成一个无法复制的登录密钥,为用户提供一种安全的登录方式。

  5. 单点登录(SSO)和联合认证:这些技术允许用户使用一组凭据安全地访问多个服务和应用程序。例如,使用Google或Facebook账户登录不同的网站和服务。

  6. 行为分析和人工智能:一些高级系统使用AI来分析用户的行为模式(如打字方式、使用习惯等),以识别非法登录尝试。

这些技术的发展和应用表明,我们正越来越多地依赖于非传统密码的认证方式,这些方法不仅提高了安全性,还提供了更便捷的用户体验。然而,这并不意味着密码会完全消失,但它们的重要性和普遍性正在逐渐减少。【12†来源】

帮助我们更全面地更深入的理解复杂的全球性问题和现象。

步骤1:用python写个爬虫 爬取百度热点并入数据库

因为个人没有那么多数据,得依靠大的机构,比如百度热点、微博头条等。只是获取,存数据库(热点,级别,状态,时间)。

要使用 Python 编写一个爬虫来爬取百度热点并将其存储到数据库中,您需要遵循几个步骤。首先,确保您有 Python 环境和所需的库,如 `requests` 用于发送网络请求和 `BeautifulSoup` 用于解析 HTML。接着,选择一个数据库来存储数据,例如 SQLite 或 MySQL,并确保安装了相应的 Python 库。以下是一个简单的示例来说明这个过程:

1. 安装所需的库

确保安装了 requestsbeautifulsoup4sqlite3(如果您使用的是 SQLite)。您可以使用以下命令安装它们(如果尚未安装):

pip install requests beautifulsoup4

sqlite3 是 Python 的一部分,因此不需要额外安装。

2. 编写爬虫代码

import requests
from bs4 import BeautifulSoup
import sqlite3

# 爬取百度热点
def fetch_baidu_hotspots():
    url = "http://top.baidu.com/buzz?b=1&c=513&fr=topbuzz_b1"  # 百度热点 URL,可能需要更新
    headers = {'User-Agent': 'Mozilla/5.0'}
    response = requests.get(url, headers=headers)
    soup = BeautifulSoup(response.content, 'html.parser')
    
    hotspots = []
    for item in soup.find_all("tr")[1:]:  # 跳过标题行
        title = item.find("a").get_text().strip()
        hotspots.append(title)
    
    return hotspots

# 将热点保存到数据库
def save_to_database(hotspots):
    conn = sqlite3.connect('hotspots.db')
    c = conn.cursor()
    
    # 创建表
    c.execute('''CREATE TABLE IF NOT EXISTS hotspots (title TEXT)''')

    # 插入数据
    for title in hotspots:
        c.execute("INSERT INTO hotspots (title) VALUES (?)", (title,))

    conn.commit()
    conn.close()

# 主函数
def main():
    hotspots = fetch_baidu_hotspots()
    save_to_database(hotspots)
    print("热点已保存到数据库。")

if __name__ == "__main__":
    main()

注意事项

  1. 反爬虫措施:网站可能有反爬虫措施。示例中使用了简单的 User-Agent,但可能需要更复杂的处理。
  2. 数据结构:这个示例假设每个热点只有标题。如果需要更多信息,需要修改数据提取逻辑和数据库结构。
  3. 数据库配置:如果使用的是其他数据库系统(如 MySQL),需要安装相应的库并修改数据库连接和操作代码。

请根据您的具体需求调整这些代码。

报错不要紧,思路是对的,就只需AI来改改。跟踪发现是已经获得了内容,html解析不对。
在这里插入图片描述

1.1python帮我从下面html中解析出“博士后当交警15年后突然火了”这个标题

<div class="category-wrap_iQLoo horizontal_1eKyQ"><a class="img-wrapper_29V76" href="https://www.baidu.com/s?wd=%E5%8D%9A%E5%A3%AB%E5%90%8E%E5%BD%93%E4%BA%A4%E8%AD%A615%E5%B9%B4%E5%90%8E%E7%AA%81%E7%84%B6%E7%81%AB%E4%BA%86&amp;sa=fyb_news&amp;rsv_dl=fyb_news" target="_blank"><div class="index_1Ew5p c-index-bg16">  16 <!--194--></div><img src="https://fyb-1.cdn.bcebos.com/fyb/de6163834f53ca92c1273fff98ac9078.jpeg?x-bce-process=image/resize,m_fill,w_256,h_170" alt=""><div class="border_3WfEn"></div></a><div class="trend_2RttY hide-icon"><div class="img-wrap_JPOmE trend-icon_1Z3Cd"><img src="//fyb-pc-static.cdn.bcebos.com/static/asset/icon-same_886375f242bd1538af21a9721f16b170.png"><!--197--></div><div class="hot-index_1Bl1a"> 3415632 </div><div class="text_1lUwZ"> 热搜指数 </div></div><!--195--><img class="line_3-bzA" src="//fyb-pc-static.cdn.bcebos.com/static/asset/line-bg@2x_95cb5a089159c6d5a959a596d460d60a.png"><div class="content_1YWBm"><a href="https://www.baidu.com/s?wd=%E5%8D%9A%E5%A3%AB%E5%90%8E%E5%BD%93%E4%BA%A4%E8%AD%A615%E5%B9%B4%E5%90%8E%E7%AA%81%E7%84%B6%E7%81%AB%E4%BA%86&amp;sa=fyb_news&amp;rsv_dl=fyb_news" class="title_dIF3B " target="_blank"><div class="c-single-text-ellipsis">  博士后当交警15年后突然火了 <!--198--></div><div class="c-text  hot-tag_1G080"></div><!--199--></a><!--s-frag--><div class="hot-desc_1m_jR small_Uvkd3 "><a href="https://www.baidu.com/s?wd=%E5%8D%9A%E5%A3%AB%E5%90%8E%E5%BD%93%E4%BA%A4%E8%AD%A615%E5%B9%B4%E5%90%8E%E7%AA%81%E7%84%B6%E7%81%AB%E4%BA%86&amp;sa=fyb_news&amp;rsv_dl=fyb_news" class="look-more_3oNWC" target="_blank">查看更多&gt;</a></div><div class="hot-desc_1m_jR large_nSuFU "><a href="https://www.baidu.com/s?wd=%E5%8D%9A%E5%A3%AB%E5%90%8E%E5%BD%93%E4%BA%A4%E8%AD%A615%E5%B9%B4%E5%90%8E%E7%AA%81%E7%84%B6%E7%81%AB%E4%BA%86&amp;sa=fyb_news&amp;rsv_dl=fyb_news" class="look-more_3oNWC" target="_blank">查看更多&gt;</a></div><!--/s-frag--><!--201--></div></div>

要使用 Python 解析 HTML 并提取特定信息,您可以使用 `BeautifulSoup` 库,它是一个强大的库,专门用于解析 HTML 和 XML 文档。以下是一个简单的示例代码,展示了如何提取您提供的 HTML 片段中的标题“博士后当交警15年后突然火了”。

首先,确保您的环境中安装了 `beautifulsoup4`。如果尚未安装,您可以通过运行 `pip install beautifulsoup4` 来安装它。

接下来是解析 HTML 并提取标题的代码:

```python
from bs4 import BeautifulSoup

# 这是您提供的 HTML 片段
html_content = '''
<div class="category-wrap_iQLoo horizontal_1eKyQ">
    <!-- ... 其他内容 ... -->
    <div class="content_1YWBm">
        <a href="https://www.baidu.com/s?wd=%E5%8D%9A%E5%A3%AB%E5%90%8E%E5%BD%93%E4%BA%A4%E8%AD%A615%E5%B9%B4%E5%90%8E%E7%AA%81%E7%84%B6%E7%81%AB%E4%BA%86&amp;sa=fyb_news&amp;rsv_dl=fyb_news" class="title_dIF3B " target="_blank">
            <div class="c-single-text-ellipsis">  博士后当交警15年后突然火了 <!--198--></div>
            <!-- ... 其他内容 ... -->
        </a>
        <!-- ... 其他内容 ... -->
    </div>
</div>
'''

# 使用 BeautifulSoup 解析 HTML
soup = BeautifulSoup(html_content, 'html.parser')

# 查找包含标题的 div 元素
title_div = soup.find('div', class_='c-single-text-ellipsis')

# 提取并打印标题文本
if title_div:
    title = title_div.get_text(strip=True)
    print(title)
else:
    print("标题未找到")

这段代码首先创建了一个 BeautifulSoup 对象来解析 HTML。然后,它使用 find 方法查找具有特定类名('c-single-text-ellipsis')的 div 元素。最后,它提取并打印出该元素的文本内容。如果无法找到相应的元素,它将打印“标题未找到”。

最终成功:

在这里插入图片描述

import requests
from bs4 import BeautifulSoup
import sqlite3

# 爬取百度热点
def fetch_baidu_hotspots():
    url = "https://top.baidu.com/board?tab=realtime"  # 百度热点 URL,可能需要更新
    headers = {    
        "User-Agent": "Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/119.0.0.0 Safari/537.36 Edg/119.0.0.0",
        "Accept-Encoding": "gzip, deflate, br"
    }
    response = requests.get(url, headers=headers)

    # 打开一个文件,如果文件不存在则创建它
    with open('response.txt', 'w', encoding='utf-8') as file:
        # 向文件中写入内容
        file.write(str(response.text))

    soup = BeautifulSoup(response.content, 'html.parser')
    hotspots = []
    titleList = soup.find_all('div', class_='c-single-text-ellipsis')
    # print(titleList)
    for item in titleList[1:]:  # 跳过标题行
        title = item.get_text().strip()
        hotspots.append(title)
       # print(title);
    return hotspots

# 将热点保存到数据库
def save_to_database(hotspots):
    conn = sqlite3.connect('hotspots.db')
    c = conn.cursor()
    
    # 创建表
    c.execute('''CREATE TABLE IF NOT EXISTS hotspots (title TEXT)''')

    # 插入数据
    for title in hotspots:
        c.execute("INSERT INTO hotspots (title) VALUES (?)", (title,))

    conn.commit()
    conn.close()

# 主函数
def main():
    hotspots = fetch_baidu_hotspots()
    print(hotspots)
    if len(hotspots) > 0 : 
        save_to_database(hotspots)
        print("热点已保存到数据库。")
    else:
        print("未找到热点。")
if __name__ == "__main__":
    main()

步骤2:千问千面,从不同的角度问相同的事情,得出不同的看法。

比如 以一个哲学家的角度,如何看待“博士后当交警15年后突然火了”,这一步需要用到chatGPT API接口。

在这里插入图片描述

using Newtonsoft.Json;
using System.Text;

class Program
{
    static readonly HttpClient client = new HttpClient();

    static async Task Main()
    {
        try
        {
            // 设置 API 密钥
            string apiKey = "";
            client.DefaultRequestHeaders.Add("Authorization", $"Bearer {apiKey}");

            // 构建请求体
            var requestData = new
            {
                model ="gpt-3.5-turbo-1106",
                messages = new[] { 
                    new { role = "system",content = "以一个哲学家的角度,如何看待“博士后当交警15年后突然火了”" }, 
                },              
                temperature = 1,
                max_tokens = 600
            };
            string json = JsonConvert.SerializeObject(requestData);
            StringContent content = new StringContent(json, Encoding.UTF8, "application/json");

            // 发送请求
            HttpResponseMessage response = await client.PostAsync("https://api.openai.com//v1/chat/completions", content);

            // 获取响应
            string responseString = await response.Content.ReadAsStringAsync();
            Console.WriteLine(responseString);

            // 解析content
            dynamic data= JsonConvert.DeserializeObject(responseString);
            var choices=data.choices;
            if (choices!=null)
            {
                foreach (var choice in choices)
                {
                    var message = choice.message;
                    Console.WriteLine($"content: {message.content}");
                }
            }
        
        }
        catch (HttpRequestException e)
        {
            Console.WriteLine("\nException Caught!");
            Console.WriteLine("Message :{0} ", e.Message);
        }
    }
}

在这里插入图片描述
GPT4是不是越来越难用了,问一下就要证明自己是不是人类。不知道什么原因12月4日升级windows为11后就开始这样。这样还怎么拿它做项目?还怎么增协助,时间精力都浪费在证明自己是不是人类。

步骤3:根据热点向下深挖,无穷无尽

以经济学的角度如何看待“人力资本的投资与回报”
在这里插入图片描述

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:/a/216718.html

如若内容造成侵权/违法违规/事实不符,请联系我们进行投诉反馈qq邮箱809451989@qq.com,一经查实,立即删除!

相关文章

开源CDN软件GoEdge —— 筑梦之路

官方网站&#xff1a;GoEdge CDN - 制作自己的CDN - GoEdge CDN | 自建CDN GoEdge是一款管理分布式CDN边缘节点的开源工具软件&#xff0c;目的是让用户轻松地、低成本地创建CDN/WAF等应用。 特性 免费 - 开源、免费、自由、开放 简单 - 架构简单清晰&#xff0c;安装简单&a…

Autosar MCAL-RH850P1HC Port配置

文章目录 PortPortGroupPortPin PortFilterGroupConfigDigital Filter Clock Selection0Digital Filter Clock Selection1 PortGeneralCritical Section ProtectionDev Error DetectDevice NameMax ModeSet Pin Default Modee ApiSet Pin Modee ApiSet to Dio Alt Modee ApiUse…

为什么要替换 Object.defineProperty?

目录 前言&#xff1a;为什么要替换 Object.defineProperty&#xff1f; 详解&#xff1a;为什么要替换 Object.defineProperty&#xff1f; 总结&#xff1a; 前言&#xff1a;为什么要替换 Object.defineProperty&#xff1f; JavaScript中的Object.defineProperty是一种…

个人Windows电脑通过Cloudreve+Cpolar搭建PHP云盘系统公网可访问

文章目录 1、前言2、本地网站搭建2.1 环境使用2.2 支持组件选择2.3 网页安装2.4 测试和使用2.5 问题解决 3、本地网页发布3.1 cpolar云端设置3.2 cpolar本地设置 4、公网访问测试5、结语 1、前言 自云存储概念兴起已经有段时间了&#xff0c;各互联网大厂也纷纷加入战局&#…

flask web开发学习之初识flask(二)

文章目录 一、创建程序实例并注册路由1. 为视图绑定绑定多个URL2. 动态URL 二、启动开发服务器1. 自动发现程序实例2. 管理环境变量3. 使用pycharm运行服务器4. 更多的启动选项5. 设置运行环境6. 调试器7. 重载器 一、创建程序实例并注册路由 app.py # 从flask包中导入flask类…

一次性客户的笔记总结

创建一次性客户&#xff0c;系统会给出一个客户编码&#xff1b; 每次记账的时候&#xff0c;在录入过账码及客户编码后&#xff0c;点击回车&#xff0c;都需要录入这个客户的详细信息&#xff08;比如 客户名称等&#xff09; 一次性客户的信息存储在BSEC表中&#xff0c;这种…

【Java 基础】16 泛型

文章目录 什么是泛型&#xff1f;泛型的声明泛型的使用泛型方法通配符和泛型上下界1&#xff09;通配符2&#xff09;泛型上下界 泛型的好处注意事项 泛型提供了一种在编写代码时更好地 支持类型安全的机制。通过泛型&#xff0c;我们可以编写更加 通用、 灵活、 可读性高的…

使用百度开发者平台处理语音朗读

--TIME --百度开发者中心-汇聚、开放、助力、共赢 --注册账号 -- 准备工作 准备工作 更新时间&#xff1a;2023-01-13 成为开发者 三步完成账号的基本注册与认证&#xff1a; STEP1&#xff1a;点击进入控制台&#xff0c;选择需要使用的AI服务项。若为未登录状态&#xf…

笔记-模拟角频率和数字角频率的关系理解

先建议阅读前人此文&#xff08;点击这里&#xff09;&#xff0c;有助于理解。 模拟频率&#xff1a;f 模拟角频率&#xff1a;Ω 数字角频率&#xff1a;ω 其中&#xff1a;在模拟信号中Ω 2πf 正弦波表示&#xff1a;sin(2πft) sin(Ωt) 数字信号就是离散的&#xff…

【动态规划】LeetCode-198/LCR089.打家劫舍

&#x1f388;算法那些事专栏说明&#xff1a;这是一个记录刷题日常的专栏&#xff0c;每个文章标题前都会写明这道题使用的算法。专栏每日计划至少更新1道题目&#xff0c;在这立下Flag&#x1f6a9; &#x1f3e0;个人主页&#xff1a;Jammingpro &#x1f4d5;专栏链接&…

整数和浮点数在内存中的存储

文章目录 每日一言整数在内存中的存储方式浮点数在内存中的存储结语 每日一言 You just can’t beat the person who never gives up. 你无法打败那位永不放弃的人。 整数在内存中的存储方式 整数在内存中的存储方式通常采用二进制形式&#xff0c;即将整数的数值转化为二进制…

笔记66:自注意力和位置编码

本地笔记地址&#xff1a;D:\work_file\&#xff08;4&#xff09;DeepLearning_Learning\03_个人笔记\3.循环神经网络\第10章&#xff1a;动手学深度学习~注意力机制 a a a a a a a a a a a a a a a a a a a

3D Web可视化平台助力Aras开发PLM系统:提供数据访问、可视化和发布功能

HOOPS中文网慧都科技是HOOPS全套产品中国地区指定授权经销商&#xff0c;提供3D软件开发工具HOOPS售卖、试用、中文试用指导服务、中文技术支持。http://techsoft3d.evget.com/ Aras是一个面向数字化工业应用的开放性平台&#xff0c;帮助世界领先的复杂互联产品制造商转变其产…

项目管理实践:如何进行项目分解?

项目管理是一个复杂的工程&#xff0c;作为项目管理者&#xff0c;项目经理应该有着统筹管理项目全局的能力。 创建一个项目计划可分为四步&#xff1a; 1、明确项目目标 项目在成立或创建之初就要有清晰明确的目标&#xff1b; 项目达到什么目的&#xff1f; 项目目标是…

CleanMyMac X2024破解注册激活码

CleanMyMac X for Mac中文2024版只需两个简单步骤就可以把系统里那些乱七八糟的无用文件统统清理掉&#xff0c;节省宝贵的磁盘空间。 cleanmymac x个人认为X代表界面上的最大升级&#xff0c;功能方面有更多增加&#xff0c;与最新macOS系统更加兼容&#xff0c;流畅地与系统性…

linux 命令 tmux 用法详解

一、tmux 解决的痛点&#xff08;screen命令一样可以解决&#xff0c;但是tmux功能更强大&#xff09; 痛点一&#xff1a;大数据传输的漫长一夜 相信做过 Linux 服务运维的同学&#xff0c;都用 scp 进行过服务器间的大文件网络传输。一般这需要很长的时间&#xff0c;这期间…

用Python创建日历详细指南与实用示例

更多Python学习内容&#xff1a;ipengtao.com 大家好&#xff0c;我是彭涛&#xff0c;今天为大家分享 用Python创建日历详细指南与实用示例&#xff0c;全文4800字&#xff0c;阅读大约15分钟。 在日常生活和工作中&#xff0c;创建和管理日历是一项关键任务。Python提供了丰富…

刷题系列——排序算法

参考&#xff1a;README - 十大经典排序算法 1&#xff09;排序算法分为内部外部排序两种&#xff0c;这个之前并不了解&#xff0c;外部排序需要访问外存的这个就是指需要额外内存比如另一个list或者dict存储中间结果。 2&#xff09;稳定性&#xff1a;排序后 2 个相等键值…

DFT新手教程:VASP中ISIF取值设置

新手初学VASP计算时首先接触到的就是结构优化的计算任务。 在结构优化中&#xff0c;INCAR中的关键参数包括 IBRION &#xff0c;NSW&#xff0c;ISIF&#xff0c;EDIFF和EDIFFG 各个参数均可在vaspwiki查到可设置的参数以及该参数所具有的设置的含义。 https://www.vasp.at/…

Shopify二次开发之三:liquid语法学习(访问Objects和Schema数据模型)

目录 Objects &#xff08;对象&#xff09; 全局对象 all_products&#xff1a;商店中所有的商品 articles: 商店中的所有文章 collections&#xff1a;商店中所有的集合 模板对象 在product.json&#xff08;配置的section中) 访问product对象 在collection.json中可…