„Matematică nouă” este o expresie încărcată. În acest caz, se referă la o afirmație conform căreia GPT-5 Pro a generat o dovadă corectă, nepublicată anterior, care a îmbunătățit o limită cunoscută într-un rezultat de optimizare convex - mutând o constantă din1/Lla1.5/Lsub aceleași ipoteze. Afirmația provine din postarea socială a unui cercetător OpenAI, care descrie modul în care modelul „a gândit” timp de aproximativ 17 minute și a produs rezultatul. A stârnit entuziasm și scepticism în egală măsură.
GPT-5 a făcut ocazional matematică nouă.
Sebastien Bubeck i-a dat o problemă deschisă din optimizarea convexă, ceva ce oamenii au rezolvat doar parțial. GPT-5-Pro s-a așezat, a argumentat timp de 17 minute și a produs o dovadă corectă, îmbunătățind legătura cunoscută de la 1/L până la... https://t.co/KNeZv7jr7dpic.twitter.com/QJ3pdZKtzH
— VraserX e/acc (@VraserX)20 august 2025
Ce s-ar fi dovedit?
Sarcina a implicat un rezultat în optimizarea convexă - un domeniu care studiază cum să minimizeze eficient funcțiile „bine comportate”. Multe garanții în acest domeniu depind de constantele de netezime, adesea scrise caL. O temă comună este demonstrarea cât de mare poate fi o dimensiune „sigură” a pasului (gândiți-vă la cât de departe vă puteți deplasa cu coborârea în gradient și totuși să faceți progrese de încredere).
Conform afirmației, GPT-5 Pro a înăsprit o garanție existentă prin îmbunătățirea factorului constant de la1/Lla1.5/Lfără a modifica ipotezele de bază. În termeni simpli: modelul a propus o modalitate validă din punct de vedere matematic de a permite unui algoritm să facă pași mai mari, rămânând în continuare în cadrul regulilor. Aceasta s-ar califica ca o rafinare netrivială - nu o mare unificare, dar nici o aritmetică trivială.
A fost cu adevărat „nou” – și este cel mai bun rezultat?
Aici contează nuanța. Îmbunătățirea la1.5/La fost descris ca necopiat de nicăieri și verificat de un expert în domeniu. Cu toate acestea, munca umană ulterioară a atins o limită și mai strânsă de1.75/Lîntr-o versiune ulterioară a aceleiaşi linii de cercetare. Momentul și încadrarea fac parte din dezbatere: unii observatori observă că rezultatul uman mai puternic a apărut public mai devreme decât a sugerat postarea socială, în timp ce susținătorii răspund că strategia de demonstrare a GPT-5 a fost diferită și, prin urmare, este încă considerată nouă.
Două puncte cheie pot fi ambele adevărate: dovada modelului poate fi corectă și originală în tehnica sa și poate să nu fie cea mai puternică legătură cunoscută. În matematică, noutatea se referă la faptul dacă un anumit argument sau rezultat a fost scris anterior, nu dacă este cea mai bună legătură posibilă pentru totdeauna.
Cum ar putea un LLM să facă asta?
OpenAI poziționează GPT-5 ca o actualizare majoră în raționament, inclusiv în matematică. În materialele sale de lansare, compania spune că GPT-5 stabilește noi note pentru criteriile de referință matematice și „știe când să răspundă rapid și când să gândească mai mult”, datorită unui sistem unificat care direcționează problemele mai dificile către un mod de raționament mai profund. Aceste afirmații sunt prezentate în anunțul GPT-5 al OpenAI și pe pagina produsului, care descriu îmbunătățiri ale corectitudinii, halucinații reduse și scoruri mai mari la concursuri precum AIME și GPQA.
Chiar și cu acele îmbunătățiri, un model de limbaj mare nu „face matematică” ca un om. Produce argumente simbolice recombinând modele pe care le-a învățat, uneori cu treceri extinse de „gândire” pentru a structura raționamentul în mai mulți pași. Acest lucru poate fi suficient pentru a aduna o dovadă validă într-o anumită nișă - mai ales atunci când modelul este ghidat de o lucrare recentă și de o întrebare clară și constrânsă, cum ar fi „îmbunătățiți constanta sub aceleași ipoteze”.
Ce face afirmația controversată?
Trei lucruri:
- Provenienţă.Este simplu să verifici dacă o dovadă este corectă; este mult mai greu de verificat că un model l-a produs independent, fără o direcție umană grea sau recuperarea dintr-un loc obscur.
- Cronologie și încadrare.Criticii susțin că postarea socială a exagerat natura rezultatului de „avansare a frontierei”, deoarece oamenii aveau deja o legătură mai puternică. Susținătorii spun că dovada modelului era încă nouă și diferită din punct de vedere material.
- Reproductibilitatea.Unii oameni raportează că a cere modelelor actuale să reproducă isprava dă răspunsuri greșite sau inconsecvente. Se întâmplă unice; capacitatea de încredere este ceea ce contează în cele din urmă.
Cum să evaluezi astfel de afirmații
Dacă încercați să înțelegeți anunțuri similare „AI a făcut matematică nouă”, aplicați aceleași filtre pe care matematicienii lucrează:
- Verificați dovada. Dacă este public, specialiștii pot verifica rapid corectitudinea. Erorile subtile sunt obișnuite în argumentele generate automat, astfel încât revizuirea externă contează.
- Comparați cu stadiul tehnicii. A fost deja dovedită aceeași legătură (sau una mai bună)? Dacă da, este noua tehnică de demonstrare semnificativ diferită?
- Testați reproductibilitatea. Rezultatul poate fi recuperat cu același prompt și model? Se generalizează la probleme similare sau este o singură dată?
- Cere transparență. Dovezile utile includ promptul exact, dacă modelul avea acces la instrumente sau căutarea pe web activată și modelul/versiunea utilizată.
- Separați „romanul” de „util”. O dovadă poate fi nouă din punct de vedere tehnic, dar incrementală; poate fi, de asemenea, mai slab decât rezultatele existente și totuși să fie interesant dacă metoda este proaspătă.
Au contribuit AI la matematică și la algoritmi înainte?
Da, deși adesea nu ca LLM-uri pur text. Google DeepMind a prezentat sisteme care descoperă sau rafinează algoritmi cu bucle agentice și verificare în amestec. De exemplu, compania a detaliat modul în care un agent alimentat de Gemini numit AlphaEvolve proiectează în mod iterativ idei algoritmice care sunt apoi riguros verificate, îmbunătățite și selectate de un sistem înconjurător; puteți citi abordarea pe blogul oficial al DeepMind. Aceste conducte arată mai puțin ca o transcriere a chat-ului și mai mult ca un laborator: generați idei, verificați, reparați, repetați.
Deci, aceasta este o mare problemă?
Dacă GPT-5 Pro a produs într-adevăr o consolidare corectă, nepublicată a unui rezultat cunoscut în câteva minute, acest lucru este demn de remarcat - nu pentru că a „inventat matematica”, ci pentru că sugerează un rol practic pentru LLM ca asistenți de cercetare neobosite care înăsprețesc constantele, încearcă căi alternative de demonstrare și evidențiază rafinamentele trecute cu vederea la cerere. Materialele proprii OpenAI subliniază un impuls către un raționament mai bun și mai puține halucinații, cu GPT-5 direcționând sarcinile grele în gândire extinsă și obținând scoruri mai mari la criteriile de referință matematice decât modelele anterioare, așa cum se subliniază în postarea sa de lansare.
Avertismentul este același ca întotdeauna: o anecdotă impresionantă nu este o capacitate. Ceea ce va conta este dacă cercetătorii independenți pot obține în mod obișnuit rezultate comparabile, corecte verificabile și clar noi - în mod ideal, cu instrucțiuni și setări complet dezvăluite.
Termeni cheie, explicați pe scurt
Convex optimization: O ramură a optimizării în care funcția obiectiv are un minim global unic și nu minime locale înșelătoare, permițând garanții teoretice puternice.L-smoothness (L): O condiție care limitează cât de repede se poate schimba gradientul; limitează dimensiunile sigure ale pașilor pentru metode precum coborârea gradientului.Bound tightening: Îmbunătățirea unei constante (de ex., de la1/Lla1.5/L) într-o teoremă, păstrând în același timp aceleași ipoteze – adesea delicate, uneori de impact.Reasoning mode: În GPT-5, o cale mai profundă „gândește mai lung” către care sistemul poate să o direcționeze pentru sarcini complexe; face parte din designul unificat descris de OpenAI în pagina sa oficială GPT-5.
Concluzia: susține că un model a făcut „noi matematice” ar trebui interogat – dar nu respins din mână. Cu GPT-5, OpenAI vizează în mod explicit raționamentul mai greu și performanța matematică într-un sistem care poate decide când să cheltuiască mai mult calcul pentru o problemă. Dacă apar fluxuri de lucru fiabile în cazul în care un model propune dovezi candidați și oamenii sau instrumentele le verifică, înăsprirea constantelor și explorarea variantelor de dovezi pot deveni o colaborare productivă între om și inteligență artificială - mai puțin „înlocuirea matematicienilor”, mai mult oferindu-le o modalitate mai rapidă de a testa ideile.
Lectură sugerată:Ce înseamnă „Arrived At The USA Local Facility SHEIN”: Urmărirea comenzilor Shein














