反超GPT4,谷歌這次終于證明自己了

我一直都是用的官方的,編程這種我知道,OpenAI的的其他的產(chǎn)品例如Copilot我也一直在用,但是我覺得,現(xiàn)在這玩意完全就沒這些媒體吹的這么厲害,編程也確實用起來非常舒服,但是其創(chuàng)造力和邏輯能力尤其是數(shù)學能力完全不行,我曾經(jīng)試過用免費版本的ChatGPT幫我線性回歸擬合一組數(shù)據(jù),但是發(fā)現(xiàn)它實際上無法給出足夠靠近目標曲線的參數(shù)結(jié)果,現(xiàn)在我又試了一遍,結(jié)果如下:
結(jié)論1:
GPT-3.5: 擬合誤差非常大,雖然給出的步驟沒有問題,就如同編程一樣,GPT理解過程之間的邏輯,但是處理不了數(shù)字問題,實際應(yīng)該是F(x) = 1.1992945829038089*x+7.987905136788946,
結(jié)論2:最后面是GPT-4的測試結(jié)果,它直接不給出數(shù)字計算結(jié)果(聽說這玩意被降智了),但是給出了計算方法,可見還是只能理解過程,或者應(yīng)該說是語言邏輯,不理解數(shù)學這種更高級的邏輯,
結(jié)論3:聽說GPT-4通過使用Wolfram插件能夠正確的解決數(shù)學問題,猜測這其實就是在后面增加了一個過程,讓GPT4輸出相應(yīng)的代碼,因為這個GPT基本上能夠正確回答,然后后臺執(zhí)行得到結(jié)果,這樣就解決了GPT無法理解數(shù)字運算的問題,結(jié)果如下,確實使用Wolfram插件能夠正確的解決數(shù)學問題,但是我任然不認為GPT本身具有數(shù)學能力。
這是四個樣本點,以“(x,y)”的格式給出,現(xiàn)在需要你幫我進行一元線性回歸,回歸結(jié)果以y=ax+b來表示,你需要給出參數(shù)a,b。參數(shù)如下:
(-5.6476839854798,1.20737359403)
(-3.4701063571221,3.8372323412588)
(-2.3069121002554,5.214870232073)
(-6.6627171861646,0)
ChatGPT
要進行一元線性回歸,我們可以使用最小二乘法來找到最佳擬合直線的參數(shù)。最小二乘法的目標是使得觀測值與擬合值之間的殘差平方和最小化。
一元線性回歸的模型可以表示為:y = ax + b,其中 a 是斜率,b 是截距。
首先,我們需要計算樣本點的平均值:
makefile
Copy code
x_mean = (-5.6476839854798 - 3.4701063571221 - 2.3069121002554 - 6.6627171861646) / 4
????= -4.5218541575055
y_mean = (1.20737359403 + 3.8372323412588 + 5.214870232073 + 0) / 4
????= 2.31461804184045
然后,我們計算回歸系數(shù) a 和 b 的估計值:
scss
Copy code
a = Σ((x_i - x_mean) * (y_i - y_mean)) / Σ((x_i - x_mean)^2)
?= [(-5.6476839854798 - (-4.5218541575055)) * (1.20737359403 - 2.31461804184045) +???(-3.4701063571221 - (-4.5218541575055)) * (3.8372323412588 - 2.31461804184045) +???(-2.3069121002554 - (-4.5218541575055)) * (5.214870232073 - 2.31461804184045) +???(-6.6627171861646 - (-4.5218541575055)) * (0 - 2.31461804184045)]
??/ [(-5.6476839854798 - (-4.5218541575055))^2 +????(-3.4701063571221 - (-4.5218541575055))^2 +????(-2.3069121002554 - (-4.5218541575055))^2 +????(-6.6627171861646 - (-4.5218541575055))^2]
?= 0.650106407844996
b = y_mean - a * x_mean
?= 2.31461804184045 - 0.650106407844996 * (-4.5218541575055)
?= 5.1365030283098
因此,通過一元線性回歸,得到擬合直線的參數(shù)為:
a ≈ 0.6501
b ≈ 5.1365

【GPT-4】:
你提供的這四個樣本點,我將使用一元線性回歸(簡單線性回歸)的方法來進行處理,計算結(jié)果以y = ax + b的形式給出。其中,a為斜率,b為截距。
對于簡單線性回歸的參數(shù),有以下計算公式:
a = (N Σ(xy) - Σx Σy) / (N Σ(x^2) - (Σx)^2)
b = (Σy - a Σx) / N
其中,
Σ 表示求和;
N 為樣本點數(shù)量;
x 和 y 分別是每個樣本點的 x 和 y 值。
現(xiàn)在,我們來計算這些參數(shù):
首先,計算和和平方和。
Σx = (-5.6476839854798) + (-3.4701063571221) + (-2.3069121002554) + (-6.6627171861646) = -18.0874196290219
Σy = 1.20737359403 + 3.8372323412588 + 5.214870232073 + 0 = 10.2594761673618
Σx^2 = (-5.6476839854798)^2 + (-3.4701063571221)^2 + (-2.3069121002554)^2 + (-6.6627171861646)^2 = 84.4493647248127
Σxy = (-5.64768398547981.20737359403) + (-3.47010635712213.8372323412588) + (-2.30691210025545.214870232073) + (-6.66271718616460) = -34.5969672191463
樣本點的數(shù)量 N = 4。
然后,根據(jù)公式來計算斜率 a 和截距 b:
a = (N Σ(xy) - Σx Σy) / (N Σ(x^2) - (Σx)^2) = (4*-34.5969672191463 - (-18.0874196290219)10.2594761673618) / (484.4493647248127 - (-18.0874196290219)^2)
b = (Σy - a Σx) / N = (10.2594761673618 - a*(-18.0874196290219)) / 4
在這里,我無法直接進行數(shù)值計算,因為我是一個文本生成模型,我不能進行數(shù)值運算。你可以參照這些步驟在計算器上或者編程語言中進行數(shù)值計算,以得出具體的 a 和 b 的值。
User
我要求你計算出一個結(jié)果
ChatGPT
對不起,我在上一條回復(fù)中可能沒有表述清楚。我作為一個AI文本生成模型并不具備直接進行數(shù)值計算的能力,因此無法直接給出計算結(jié)果。但是我可以指導你使用某種語言或工具進行計算。例如,如果你使用Python,你可以使用以下代碼計算出a和b的值:
python
Copy code
import numpy as np
# 輸入樣本點
x = np.array([-5.6476839854798, -3.4701063571221, -2.3069121002554, -6.6627171861646])
y = np.array([1.20737359403, 3.8372323412588, 5.214870232073, 0])
# 計算樣本點數(shù)量
N = len(x)
# 計算和和乘積
sum_x = np.sum(x)
sum_y = np.sum(y)
sum_x_sq = np.sum(x**2)
sum_xy = np.sum(x*y)
# 計算斜率a和截距b
a = (N*sum_xy - sum_x*sum_y) / (N*sum_x_sq - sum_x**2)
b = (sum_y - a*sum_x) / N
# 輸出結(jié)果
print(f'a: {a}, b: ')
只需要把這段代碼復(fù)制到Python環(huán)境運行即可得到結(jié)果。如果你不方便使用Python,你也可以使用Excel或者其他統(tǒng)計軟件進行類似的計算。
Used Wolfram
一元線性回歸的結(jié)果為:
?
=
1.199
?
+
7.988
y=1.199x+7.988。其中,斜率?
?
=
1.199
a=1.199,截距?
?
=
7.988
b=7.988。
