在當今快節奏的商業環境中,組織被驅動決策,優化運營並保持競爭力的數據所淹沒。但是,從這些數據中提取可行的見解仍然是一個重大障礙。與代理AI集成時,檢索功能增強的一代(RAG)系統不僅可以通過檢索相關信息,還可以實時處理和交付上下文感知的見解來應對這一挑戰。這種組合允許企業創建智能代理,以自主查詢數據集,適應和提取有關產品功能,集成和操作的見解。
>通過將抹布與代理AI合併,企業可以增強決策並將分散的數據轉換為有價值的智能。該博客探討了使用Agentic AI構建RAG管道的過程,提供技術見解和代碼示例,以增強組織中明智的決策能力。
學習目標
- >學習如何使用Python和刮擦工具自動從多個Web來源提取和刮擦相關數據,從而為任何公司智能平台構成基礎。 >
- 通過提取諸如產品功能,集成和使用AI驅動的技術諸如產品功能,集成和故障排除步驟之類的關鍵點,了解如何將數據構造和處理刮擦數據。 學習如何將抹布與文檔檢索和自然語言生成整合,以構建一個能夠從廣泛數據集中傳遞上下文感知答案的智能查詢系統。
- >了解如何構建一個結合數據刮擦,知識提取和實時查詢處理的代理AI系統,使企業能夠自動提取可行的見解。
- > >了解如何使用雲平台和分佈式體系結構來擴展和部署此類系統,以確保它可以有效地處理大型數據集和高查詢負載。
>本文是> > data Science Blogathon的一部分。內容表
>為公司情報構建強大的抹布系統的第一步是收集必要的數據。由於數據可能來自各種網絡來源,因此有效地刮擦和組織它是關鍵。發現和收集相關頁面的一種有效技術是廣度優先搜索(BFS)。 BFS幫助我們遞歸地發現從主頁開始的鏈接,從而逐漸將搜索擴展到更深的級別。這樣可以確保我們收集所有相關頁面,而不會用不必要的數據壓倒系統。
在本節中,我們將研究如何使用BFS從網站提取鏈接,然後將這些頁面的內容刪除。使用BFS,我們會系統地遍歷網站,收集數據並創建一個有意義的數據集,用於在RAG管道中處理。 下面的代碼使用BFS從啟動URL中進行鏈接提取。它首先獲取主頁,提取所有鏈接(< a>帶有HREF屬性的標籤),然後遵循這些鏈接到後續頁面,遞歸根據給定深度限制。
>我們保持隊列以跟踪訪問的URL及其相應的深度,以確保有效的遍歷。訪問的集合用於防止多次重新訪問相同的URL。對於每個URL,我們使用BeautifulSoup來解析HTML並提取所有鏈接(帶有HREF屬性的標籤)。該過程使用BFS遍歷,遞歸獲取每個URL的內容,提取鏈接並進一步探索直到達到深度極限。這種方法可確保我們在沒有冗餘的情況下有效地探索網絡。 >使用BFS提取相關鏈接後,下一步就是從這些頁面中刮擦內容。我們將尋找關鍵信息,例如產品功能,集成和任何其他相關數據,這些數據將幫助我們為RAG系統構建結構化數據集。 >
>
>步驟1:加載刮擦數據 >此過程的第一步是將原始的刮擦內容加載到我們的系統中。正如我們之前看到的,刮擦數據以JSON格式存儲,每個條目都包含一個URL和相關內容。我們需要確保此數據以適當的格式供AI處理。
>在這裡,我們使用Python的內置JSON庫將整個數據集加載到存儲器中。數據集中的每個條目都包含源的URL和text_content字段,該字段容納了原始的刮擦文本。此內容是我們將在接下來的一步中處理的內容。 接下來,我們通過數據集迭代以提取每個條目的相關text_content。這樣可以確保我們僅處理包含必要內容的有效條目。跳過無效或不完整的條目以維持該過程的完整性。
代碼代碼片段:
代碼代碼片段:
>在這裡,該代碼啟動了對GROQ的API調用,將Input_Text和說明作為消息有效負載的一部分發送。系統消息指示執行確切任務的AI模型,而用戶消息則提供要處理的內容。我們使用溫度,max_tokens和top_p參數來控制生成的輸出的隨機性和長度。
此代碼段將每個塊的內容串聯到> pm_points 變量,從而產生完整的結構化洞察集。它以利益相關者可以輕鬆消費或用於進一步分析的格式提取這些見解。以下是原始代碼的輸出屏幕截圖,並掩蓋了敏感信息以保持完整性。
AI處理內容並返回結構化的見解後,最後一步是保存此數據以供以後使用。我們將結構化結果寫回JSON文件,以確保每個條目都有自己的已處理信息存儲以進行進一步分析。
>該代碼可有效存儲處理後的數據,並允許以後輕鬆訪問。它及其各自的結構化點保存了每個條目,從而簡單地檢索提取的信息並分析。
>輸出
在上一節中,我們專注於從網頁中提取數據,並將其轉換為JSON等結構化格式。我們還實施了提取和清潔相關數據的技術,從而使我們能夠生成一個可以進行更深入分析的數據集。
開始,讓我們安裝抹布管道的所有必要依賴項: >此外,我們使用句子轉換器來生成具有預訓練的變壓器模型的文本嵌入,從而實現有效的文檔處理和檢索。 步驟2:加載提取的數據 。
>現在我們有了原始數據,我們使用recursivecharactertextsplitter將文檔分解為較小的塊。這樣可以確保沒有單個塊超過語言模型的令牌限制。 現在,我們使用sencencetransformer將每個文本塊轉換為嵌入式。這些嵌入代表了高維矢量空間中文本的含義,這對於以後搜索和檢索相關文檔很有用。
>現在我們配置了獵犬。該組件根據用戶查詢搜索最相關的文本塊。它將最類似的文檔塊檢索到查詢中。 接下來,我們創建一個提示模板,該模板將格式化語言模型的輸入。該模板既包含上下文(檢索到的塊)和用戶的查詢,從而指導模型以僅基於提供的上下文生成答案。
> stroutputparser用於清潔和格式化模型的輸出為字符串格式。
>部署和縮放 這可以通過利用分佈式向量存儲和優化檢索過程來實現,從而確保管道在大量使用下保持響應迅速和快速。借助正確的基礎架構和優化技術,代理平台可以增長以支持大規模運營,實現實時見解並保持公司情報的競爭優勢。 結論 這種可擴展的解決方案隨您的需求而生長,處理複雜的查詢和較大的數據集,同時保持準確性。借助正確的基礎設施,這個AI驅動的平台成為了更智能運營的基石,使組織能夠利用其數據,保持競爭力並通過組織中的智能決策來推動創新。
常見問題
,使企業能夠提取實時,可行的見解。為什麼數據刮擦對於公司情報很重要?數據刮擦有助於通過從多個來源收集和構造有價值的信息來建立強大的公司智能 >本文所示的媒體不歸Analytics Vidhya擁有,並由作者的酌情決定使用。
import requests
from bs4 import BeautifulSoup
from collections import deque
# Function to extract links using BFS
def bfs_link_extraction(start_url, max_depth=3):
visited = set() # To track visited links
queue = deque([(start_url, 0)]) # Queue to store URLs and current depth
all_links = []
while queue:
url, depth = queue.popleft()
if depth > max_depth:
continue
# Fetch the content of the URL
try:
response = requests.get(url)
soup = BeautifulSoup(response.content, 'html.parser')
# Extract all links in the page
links = soup.find_all('a', href=True)
for link in links:
full_url = link['href']
if full_url.startswith('http') and full_url not in visited:
visited.add(full_url)
queue.append((full_url, depth + 1))
all_links.append(full_url)
except requests.exceptions.RequestException as e:
print(f"Error fetching {url}: {e}")
return all_links
# Start the BFS from the homepage
start_url = 'https://www.example.com' # Replace with the actual homepage URL
all_extracted_links = bfs_link_extraction(start_url)
print(f"Extracted {len(all_extracted_links)} links.")
使用BFS提取數據並刮擦數據步驟1:使用BFS
鏈接提取
為了開始,我們需要從給定網站收集所有相關鏈接。使用BFS,我們可以探索主頁上的鏈接,然後從那裡遵循其他頁面上的鏈接,直到指定的深度。此方法可確保我們捕獲所有可能包含相關公司數據的必要頁面,例如產品功能,集成或其他關鍵細節。
Extracted 1500 links.
>步驟2:從提取的鏈接中刮擦數據
import requests
from bs4 import BeautifulSoup
from collections import deque
# Function to extract links using BFS
def bfs_link_extraction(start_url, max_depth=3):
visited = set() # To track visited links
queue = deque([(start_url, 0)]) # Queue to store URLs and current depth
all_links = []
while queue:
url, depth = queue.popleft()
if depth > max_depth:
continue
# Fetch the content of the URL
try:
response = requests.get(url)
soup = BeautifulSoup(response.content, 'html.parser')
# Extract all links in the page
links = soup.find_all('a', href=True)
for link in links:
full_url = link['href']
if full_url.startswith('http') and full_url not in visited:
visited.add(full_url)
queue.append((full_url, depth + 1))
all_links.append(full_url)
except requests.exceptions.RequestException as e:
print(f"Error fetching {url}: {e}")
return all_links
# Start the BFS from the homepage
start_url = 'https://www.example.com' # Replace with the actual homepage URL
all_extracted_links = bfs_link_extraction(start_url)
print(f"Extracted {len(all_extracted_links)} links.")
>對於列表中的每個URL,我們發送HTTP請求以獲取頁面的內容,並使用BeautifulSoup解析其提取標題和主要內容。我們將提取的數據存儲在字典列表中,每個詞典都包含URL,標題和內容。最後,我們將刮擦數據保存到JSON文件中,以確保可以在RAG管道中進行以後的處理。此過程可確保有效收集和存儲相關數據以進一步使用。
>該代碼的輸出將是一個保存的JSON文件(Scraped_data.json),其中包含來自鏈接的刮擦數據。數據結構的一個示例可能是這樣的:Extracted 1500 links.
此JSON文件包含我們刮擦的每個頁面的URL,標題和內容。現在可以將這些結構化數據用於進一步處理,例如在抹布系統中嵌入生成和提問。以下是原始代碼的輸出屏幕截圖。敏感信息已被掩蓋以維持完整性。
用AI代理自動化信息提取
在本節中,我們關注代理AI如何從刮擦數據中提取相關的產品信息,以確保其已準備好利益相關者的消費。我們將分解涉及的關鍵步驟,從加載數據到處理數據,最後以結構化格式保存結果。
代碼代碼片段:
import requests
from bs4 import BeautifulSoup
from collections import deque
# Function to extract links using BFS
def bfs_link_extraction(start_url, max_depth=3):
visited = set() # To track visited links
queue = deque([(start_url, 0)]) # Queue to store URLs and current depth
all_links = []
while queue:
url, depth = queue.popleft()
if depth > max_depth:
continue
# Fetch the content of the URL
try:
response = requests.get(url)
soup = BeautifulSoup(response.content, 'html.parser')
# Extract all links in the page
links = soup.find_all('a', href=True)
for link in links:
full_url = link['href']
if full_url.startswith('http') and full_url not in visited:
visited.add(full_url)
queue.append((full_url, depth + 1))
all_links.append(full_url)
except requests.exceptions.RequestException as e:
print(f"Error fetching {url}: {e}")
return all_links
# Start the BFS from the homepage
start_url = 'https://www.example.com' # Replace with the actual homepage URL
all_extracted_links = bfs_link_extraction(start_url)
print(f"Extracted {len(all_extracted_links)} links.")
>步驟2:提取原始文本內容
Extracted 1500 links.
步驟3:將數據發送給AI代理進行處理
import json
# Function to scrape and extract data from the URLs
def scrape_data_from_links(links):
scraped_data = []
for link in links:
try:
response = requests.get(link)
soup = BeautifulSoup(response.content, 'html.parser')
# Example: Extract 'title' and 'content' (modify according to your needs)
title = soup.find('title').get_text()
content = soup.find('div', class_='content').get_text() # Adjust selector
# Store the extracted data
scraped_data.append({
'url': link,
'title': title,
'content': content
})
except requests.exceptions.RequestException as e:
print(f"Error scraping {link}: {e}")
return scraped_data
# Scrape data from the extracted links
scraped_contents = scrape_data_from_links(all_extracted_links)
# Save scraped data to a JSON file
with open('/content/scraped_data.json', 'w') as outfile:
json.dump(scraped_contents, outfile, indent=4)
print("Data scraping complete.")
API調用配置:指定要使用的模型。在這種情況下,選擇語言模型以確保它可以處理文本數據並生成響應。
import requests
from bs4 import BeautifulSoup
from collections import deque
# Function to extract links using BFS
def bfs_link_extraction(start_url, max_depth=3):
visited = set() # To track visited links
queue = deque([(start_url, 0)]) # Queue to store URLs and current depth
all_links = []
while queue:
url, depth = queue.popleft()
if depth > max_depth:
continue
# Fetch the content of the URL
try:
response = requests.get(url)
soup = BeautifulSoup(response.content, 'html.parser')
# Extract all links in the page
links = soup.find_all('a', href=True)
for link in links:
full_url = link['href']
if full_url.startswith('http') and full_url not in visited:
visited.add(full_url)
queue.append((full_url, depth + 1))
all_links.append(full_url)
except requests.exceptions.RequestException as e:
print(f"Error fetching {url}: {e}")
return all_links
# Start the BFS from the homepage
start_url = 'https://www.example.com' # Replace with the actual homepage URL
all_extracted_links = bfs_link_extraction(start_url)
print(f"Extracted {len(all_extracted_links)} links.")
在處理時,總是有可能遇到錯誤的可能性,例如不完整的內容或網絡問題。通過使用錯誤處理機制,我們確保該過程對於所有有效條目都可以順利進行。
代碼代碼片段:Extracted 1500 links.
步驟6:保存處理的數據代碼代碼片段:
import json
# Function to scrape and extract data from the URLs
def scrape_data_from_links(links):
scraped_data = []
for link in links:
try:
response = requests.get(link)
soup = BeautifulSoup(response.content, 'html.parser')
# Example: Extract 'title' and 'content' (modify according to your needs)
title = soup.find('title').get_text()
content = soup.find('div', class_='content').get_text() # Adjust selector
# Store the extracted data
scraped_data.append({
'url': link,
'title': title,
'content': content
})
except requests.exceptions.RequestException as e:
print(f"Error scraping {link}: {e}")
return scraped_data
# Scrape data from the extracted links
scraped_contents = scrape_data_from_links(all_extracted_links)
# Save scraped data to a JSON file
with open('/content/scraped_data.json', 'w') as outfile:
json.dump(scraped_contents, outfile, indent=4)
print("Data scraping complete.")
>
[
{
"url": "https://www.example.com/page1",
"title": "Page 1 Title",
"content": "This is the content of the first page. It contains
information about integrations and features."
},
{
"url": "https://www.example.com/page2",
"title": "Page 2 Title",
"content": "Here we describe the functionalities of the product.
It includes various use cases and capabilities."
}
]
>檢索增強的生成管道實施>步驟1:設置環境
import requests
from bs4 import BeautifulSoup
from collections import deque
# Function to extract links using BFS
def bfs_link_extraction(start_url, max_depth=3):
visited = set() # To track visited links
queue = deque([(start_url, 0)]) # Queue to store URLs and current depth
all_links = []
while queue:
url, depth = queue.popleft()
if depth > max_depth:
continue
# Fetch the content of the URL
try:
response = requests.get(url)
soup = BeautifulSoup(response.content, 'html.parser')
# Extract all links in the page
links = soup.find_all('a', href=True)
for link in links:
full_url = link['href']
if full_url.startswith('http') and full_url not in visited:
visited.add(full_url)
queue.append((full_url, depth + 1))
all_links.append(full_url)
except requests.exceptions.RequestException as e:
print(f"Error fetching {url}: {e}")
return all_links
# Start the BFS from the homepage
start_url = 'https://www.example.com' # Replace with the actual homepage URL
all_extracted_links = bfs_link_extraction(start_url)
print(f"Extracted {len(all_extracted_links)} links.")
這些軟件包對於在Langchain中集成文檔處理,矢量化和OpenAI模型至關重要。 JQ是輕量級的JSON處理器,而Langchain則是構建語言模型管道的核心框架。 Langchain-Openai促進了諸如GPT之類的OpenAI模型的整合,Langchain-Chroma提供了基於色度的矢量商店,用於管理文檔嵌入。
現在,我們將加載使用JSONLOADER在上一節中提取和處理的結構化數據。例如,這些數據本可以從網頁中刮掉為結構化的JSON,其中鍵值對與特定主題或問題有關。
在此步驟中,已加載了先前提取的數據(可能包含產品功能,集成和功能)以進行進一步處理。 Extracted 1500 links.
步驟4:生成文檔塊的嵌入
import json
# Function to scrape and extract data from the URLs
def scrape_data_from_links(links):
scraped_data = []
for link in links:
try:
response = requests.get(link)
soup = BeautifulSoup(response.content, 'html.parser')
# Example: Extract 'title' and 'content' (modify according to your needs)
title = soup.find('title').get_text()
content = soup.find('div', class_='content').get_text() # Adjust selector
# Store the extracted data
scraped_data.append({
'url': link,
'title': title,
'content': content
})
except requests.exceptions.RequestException as e:
print(f"Error scraping {link}: {e}")
return scraped_data
# Scrape data from the extracted links
scraped_contents = scrape_data_from_links(all_extracted_links)
# Save scraped data to a JSON file
with open('/content/scraped_data.json', 'w') as outfile:
json.dump(scraped_contents, outfile, indent=4)
print("Data scraping complete.")
> sencencetransformer用於生成文本塊的嵌入,創建捕獲語義信息的密集矢量表示。函數embed_documents處理多個文檔並返回其嵌入,而Embed_query生成了用戶查詢的嵌入式。 Chroma是一個矢量存儲,管理這些嵌入並根據相似性實現有效的檢索,從而允許快速準確的文檔或查詢匹配。>步驟5:設置獵犬
import requests
from bs4 import BeautifulSoup
from collections import deque
# Function to extract links using BFS
def bfs_link_extraction(start_url, max_depth=3):
visited = set() # To track visited links
queue = deque([(start_url, 0)]) # Queue to store URLs and current depth
all_links = []
while queue:
url, depth = queue.popleft()
if depth > max_depth:
continue
# Fetch the content of the URL
try:
response = requests.get(url)
soup = BeautifulSoup(response.content, 'html.parser')
# Extract all links in the page
links = soup.find_all('a', href=True)
for link in links:
full_url = link['href']
if full_url.startswith('http') and full_url not in visited:
visited.add(full_url)
queue.append((full_url, depth + 1))
all_links.append(full_url)
except requests.exceptions.RequestException as e:
print(f"Error fetching {url}: {e}")
return all_links
# Start the BFS from the homepage
start_url = 'https://www.example.com' # Replace with the actual homepage URL
all_extracted_links = bfs_link_extraction(start_url)
print(f"Extracted {len(all_extracted_links)} links.")
>步驟6:創建提示模板
Extracted 1500 links.
>步驟7:設置語言模型
在此步驟中,我們初始化OpenAI GPT模型。該模型將根據獵犬提供的結構化上下文生成答案。
>
import json
# Function to scrape and extract data from the URLs
def scrape_data_from_links(links):
scraped_data = []
for link in links:
try:
response = requests.get(link)
soup = BeautifulSoup(response.content, 'html.parser')
# Example: Extract 'title' and 'content' (modify according to your needs)
title = soup.find('title').get_text()
content = soup.find('div', class_='content').get_text() # Adjust selector
# Store the extracted data
scraped_data.append({
'url': link,
'title': title,
'content': content
})
except requests.exceptions.RequestException as e:
print(f"Error scraping {link}: {e}")
return scraped_data
# Scrape data from the extracted links
scraped_contents = scrape_data_from_links(all_extracted_links)
# Save scraped data to a JSON file
with open('/content/scraped_data.json', 'w') as outfile:
json.dump(scraped_contents, outfile, indent=4)
print("Data scraping complete.")
我們初始化Chatopenai模型,該模型將處理提示並生成答案。 >我們使用較小的模型“ GPT-4O-Mini”進行有效的處理,儘管較大的模型可以用於更複雜的任務。
> RunnablePassThrough確保查詢直接傳遞到提示。
[
{
"url": "https://www.example.com/page1",
"title": "Page 1 Title",
"content": "This is the content of the first page. It contains
information about integrations and features."
},
{
"url": "https://www.example.com/page2",
"title": "Page 2 Title",
"content": "Here we describe the functionalities of the product.
It includes various use cases and capabilities."
}
]
>步驟9:測試抹布管道
對於每個查詢,模型都會處理檢索到的上下文,並提供了基於上下文的答案。
下面是原始代碼的抹布輸出的屏幕截圖。敏感信息已被掩蓋以維持完整性。 import json
# Load the scraped JSON file containing the web data
with open('/content/scraped_contents_zluri_all_links.json', 'r') as file:
data = json.load(file)
通過結合Web刮擦,數據提取和高級檢索功能(RAG)技術,我們為公司智能創建了一個強大而可擴展的框架。提取鏈接和刮擦數據的第一步確保我們從網絡中收集相關和最新信息。第二部分重點是查明與產品相關的特定細節,從而更容易對數據進行分類和處理數據。
>一旦建立了公司情報系統,下一步就是部署和擴展其供生產使用。您可以在AWS或GCP等雲平台上部署該系統以靈活性和可擴展性,或者如果數據隱私為優先級,則選擇本地解決方案。為了使系統更加用戶友好,請考慮構建一個簡單的API或UI,允許用戶與平台進行交互並毫不費力地檢索見解。隨著系統開始處理較大的數據集和更高的查詢負載,必須有效擴展。
鑰匙要點
獎勵: 1。 在此設置中使用檢索增強生成(RAG)的目的是什麼? RAG通過將信息檢索與生成AI相結合,增強了AI模型提供上下文感知響應的能力。它可以對大型數據集進行更明智的查詢,從而更容易檢索精確的,相關的答案,而不僅僅是執行基本的關鍵字搜索。
q 2。 需要哪些工具和庫來構建博客中描述的系統?使用的主要工具和庫包括Python,用於網絡刮擦的美麗套件,用於管理文檔檢索的Langchain,用於自然語言處理的OpenAI模型以及用於存儲矢量化文檔的Chroma。這些組件共同創建一個全面的公司情報平台。 指針提取過程如何在此系統中起作用?指針提取涉及從刮擦內容中識別特定信息,例如產品功能,集成和故障排除提示。數據是使用及時驅動系統處理的,該系統將信息組織到結構化的,可行的見解中。這是通過AI模型和自定義提示的組合來實現的。
以上是在組織中建立用於智能決策的破布系統的詳細內容。更多資訊請關注PHP中文網其他相關文章!
![無法使用chatgpt!解釋可以立即測試的原因和解決方案[最新2025]](https://img.php.cn/upload/article/001/242/473/174717025174979.jpg?x-oss-process=image/resize,p_40)
ChatGPT無法訪問?本文提供多種實用解決方案!許多用戶在日常使用ChatGPT時,可能會遇到無法訪問或響應緩慢等問題。本文將根據不同情況,逐步指導您解決這些問題。 ChatGPT無法訪問的原因及初步排查 首先,我們需要確定問題是出在OpenAI服務器端,還是用戶自身網絡或設備問題。 請按照以下步驟進行排查: 步驟1:檢查OpenAI官方狀態 訪問OpenAI Status頁面 (status.openai.com),查看ChatGPT服務是否正常運行。如果顯示紅色或黃色警報,則表示Open

2025年5月10日,麻省理工學院物理學家Max Tegmark告訴《衛報》,AI實驗室應在釋放人工超級智能之前模仿Oppenheimer的三位一體測試演算。 “我的評估是'康普頓常數',這是一場比賽的可能性

AI音樂創作技術日新月異,本文將以ChatGPT等AI模型為例,詳細講解如何利用AI輔助音樂創作,並輔以實際案例進行說明。我們將分別介紹如何通過SunoAI、Hugging Face上的AI jukebox以及Python的Music21庫進行音樂創作。 通過這些技術,每個人都能輕鬆創作原創音樂。但需注意,AI生成內容的版權問題不容忽視,使用時務必謹慎。 讓我們一起探索AI在音樂領域的無限可能! OpenAI最新AI代理“OpenAI Deep Research”介紹: [ChatGPT]Ope

ChatGPT-4的出现,极大地拓展了AI应用的可能性。相较于GPT-3.5,ChatGPT-4有了显著提升,它具备强大的语境理解能力,还能识别和生成图像,堪称万能的AI助手。在提高商业效率、辅助创作等诸多领域,它都展现出巨大的潜力。然而,与此同时,我们也必须注意其使用上的注意事项。 本文将详细解读ChatGPT-4的特性,并介绍针对不同场景的有效使用方法。文中包含充分利用最新AI技术的技巧,敬请参考。 OpenAI发布的最新AI代理,“OpenAI Deep Research”详情请点击下方链

CHATGPT應用程序:與AI助手釋放您的創造力!初學者指南 ChatGpt應用程序是一位創新的AI助手,可處理各種任務,包括寫作,翻譯和答案。它是一種具有無限可能性的工具,可用於創意活動和信息收集。 在本文中,我們將以一種易於理解的方式解釋初學者,從如何安裝chatgpt智能手機應用程序到語音輸入功能和插件等應用程序所獨有的功能,以及在使用該應用時要牢記的要點。我們還將仔細研究插件限制和設備對設備配置同步

ChatGPT中文版:解鎖中文AI對話新體驗 ChatGPT風靡全球,您知道它也提供中文版本嗎?這款強大的AI工具不僅支持日常對話,還能處理專業內容,並兼容簡體中文和繁體中文。無論是中國地區的使用者,還是正在學習中文的朋友,都能從中受益。 本文將詳細介紹ChatGPT中文版的使用方法,包括賬戶設置、中文提示詞輸入、過濾器的使用、以及不同套餐的選擇,並分析潛在風險及應對策略。此外,我們還將對比ChatGPT中文版和其他中文AI工具,幫助您更好地了解其優勢和應用場景。 OpenAI最新發布的AI智能

這些可以將其視為生成AI領域的下一個飛躍,這為我們提供了Chatgpt和其他大型語言模型聊天機器人。他們可以代表我們採取行動,而不是簡單地回答問題或產生信息

使用chatgpt有效的多個帳戶管理技術|關於如何使用商業和私人生活的詳盡解釋! Chatgpt在各種情況下都使用,但是有些人可能擔心管理多個帳戶。本文將詳細解釋如何為ChatGpt創建多個帳戶,使用時該怎麼做以及如何安全有效地操作它。我們還介紹了重要的一點,例如業務和私人使用差異,並遵守OpenAI的使用條款,並提供指南,以幫助您安全地利用多個帳戶。 Openai


熱AI工具

Undresser.AI Undress
人工智慧驅動的應用程序,用於創建逼真的裸體照片

AI Clothes Remover
用於從照片中去除衣服的線上人工智慧工具。

Undress AI Tool
免費脫衣圖片

Clothoff.io
AI脫衣器

Video Face Swap
使用我們完全免費的人工智慧換臉工具,輕鬆在任何影片中換臉!

熱門文章

熱工具

SublimeText3 英文版
推薦:為Win版本,支援程式碼提示!

SecLists
SecLists是最終安全測試人員的伙伴。它是一個包含各種類型清單的集合,這些清單在安全評估過程中經常使用,而且都在一個地方。 SecLists透過方便地提供安全測試人員可能需要的所有列表,幫助提高安全測試的效率和生產力。清單類型包括使用者名稱、密碼、URL、模糊測試有效載荷、敏感資料模式、Web shell等等。測試人員只需將此儲存庫拉到新的測試機上,他就可以存取所需的每種類型的清單。

Safe Exam Browser
Safe Exam Browser是一個安全的瀏覽器環境,安全地進行線上考試。該軟體將任何電腦變成一個安全的工作站。它控制對任何實用工具的訪問,並防止學生使用未經授權的資源。

Atom編輯器mac版下載
最受歡迎的的開源編輯器

記事本++7.3.1
好用且免費的程式碼編輯器