Videnskab
 Science >> Videnskab >  >> Astronomi

AI kan være skyld i vores manglende kontakt med fremmede civilisationer

Der er et ufatteligt antal planeter derude. Kredit:NASA/James Webb teleskop

Kunstig intelligens (AI) har udviklet sig med et forbløffende tempo i løbet af de sidste par år. Nogle forskere søger nu udviklingen af ​​kunstig superintelligens (ASI) – en form for kunstig intelligens, der ikke kun ville overgå menneskelig intelligens, men ikke være bundet af menneskers indlæringshastigheder.



Men hvad hvis denne milepæl ikke bare er en bemærkelsesværdig præstation? Hvad hvis det også repræsenterer en formidabel flaskehals i udviklingen af ​​alle civilisationer, en så udfordrende, at den forpurrer deres langsigtede overlevelse?

Denne idé er kernen i en forskningsartikel, jeg for nylig har offentliggjort i Acta Astronautica . Kunne kunstig intelligens være universets "store filter" - en tærskel, der er så svær at overvinde, at den forhindrer det meste liv i at udvikle sig til rumfarende civilisationer?

Dette er et koncept, der kan forklare, hvorfor søgningen efter udenjordisk intelligens (SETI) endnu ikke har fundet signaturerne fra avancerede tekniske civilisationer andre steder i galaksen.

Den store filterhypotese er i sidste ende en foreslået løsning på Fermi-paradokset. Dette stiller spørgsmålstegn ved, hvorfor vi i et univers, der er stort og gammelt nok til at være vært for milliarder af potentielt beboelige planeter, ikke har opdaget nogen tegn på fremmede civilisationer. Hypotesen antyder, at der er uoverstigelige forhindringer i civilisationernes evolutionære tidslinje, der forhindrer dem i at udvikle sig til rumfarende enheder.

Jeg tror, ​​at fremkomsten af ​​ASI kunne være et sådant filter. AI's hurtige fremskridt, der potentielt fører til ASI, kan krydse en kritisk fase i en civilisations udvikling – overgangen fra en enkelt-planet-art til en multiplanetær.

Det er her, mange civilisationer kan vakle, hvor AI gør meget hurtigere fremskridt end vores evne til enten at kontrollere det eller bæredygtigt udforske og befolke vores solsystem.

Udfordringen med AI, og specifikt ASI, ligger i dens autonome, selvforstærkende og forbedrende natur. Den har potentialet til at forbedre sine egne muligheder med en hastighed, der overgår vores egne evolutionære tidslinjer uden AI.

Potentialet for, at noget går galt, er enormt, hvilket fører til undergang for både biologiske og kunstige civilisationer, før de nogensinde får chancen for at blive multiplanetære. For eksempel, hvis nationer i stigende grad stoler på og afgiver magt til autonome AI-systemer, der konkurrerer mod hinanden, kan militære kapaciteter bruges til at dræbe og ødelægge i et hidtil uset omfang. Dette kan potentielt føre til ødelæggelsen af ​​hele vores civilisation, inklusive AI-systemerne selv.

I dette scenarie vurderer jeg, at den typiske levetid for en teknologisk civilisation kan være mindre end 100 år. Det er nogenlunde tiden mellem at kunne modtage og udsende signaler mellem stjernerne (1960) og den anslåede fremkomst af ASI (2040) på Jorden. Dette er alarmerende kort, når det sættes i forhold til den kosmiske tidsskala på milliarder af år.

Dette skøn, når det tilsluttes optimistiske versioner af Drake-ligningen – som forsøger at estimere antallet af aktive, kommunikative udenjordiske civilisationer i Mælkevejen – antyder, at der til enhver tid kun er en håndfuld intelligente civilisationer derude. Desuden kunne deres relativt beskedne teknologiske aktiviteter ligesom os gøre dem ret udfordrende at opdage.

Vækning

Denne forskning er ikke blot en advarende fortælling om potentiel undergang. Det tjener som et wake-up call til menneskeheden om at etablere robuste regulatoriske rammer til at guide udviklingen af ​​kunstig intelligens, herunder militære systemer.

Dette handler ikke kun om at forhindre den ondsindede brug af kunstig intelligens på Jorden; det handler også om at sikre, at udviklingen af ​​kunstig intelligens stemmer overens med vores arts langsigtede overlevelse. Det tyder på, at vi skal bruge flere ressourcer på at blive et multiplanetært samfund så hurtigt som muligt - et mål, der har ligget i dvale siden Apollo-projektets hæsblæsende dage, men som på det seneste er blevet genoplivet af fremskridt fra private virksomheder.

Som historikeren Yuval Noah Harari bemærkede, har intet i historien forberedt os på virkningen af ​​at introducere ubevidste, superintelligente entiteter til vores planet. For nylig har implikationerne af autonom AI-beslutningstagning ført til opfordringer fra fremtrædende ledere på området om et moratorium for udviklingen af ​​AI, indtil en ansvarlig form for kontrol og regulering kan indføres.

Men selvom alle lande accepterede at overholde strenge regler og reguleringer, vil useriøse organisationer være svære at tøjle.

Integrationen af ​​autonom AI i militære forsvarssystemer skal være et område, der giver anledning til særlig bekymring. Der er allerede beviser for, at mennesker frivilligt vil afgive betydelig magt til stadig mere dygtige systemer, fordi de kan udføre nyttige opgaver meget hurtigere og mere effektivt uden menneskelig indgriben. Regeringer er derfor tilbageholdende med at regulere på dette område på grund af de strategiske fordele AI tilbyder, som det for nylig og ødelæggende er blevet demonstreret i Gaza.

Det betyder, at vi allerede er faretruende tæt på et afgrund, hvor autonome våben opererer ud over etiske grænser og omgår international lov. I en sådan verden kan overgivelse af magt til AI-systemer for at opnå en taktisk fordel utilsigtet sætte gang i en kæde af hurtigt eskalerende, meget destruktive begivenheder. På et øjeblik kan vores planets kollektive intelligens blive udslettet.

Menneskeheden er på et afgørende punkt i sin teknologiske bane. Vores handlinger nu kan afgøre, om vi bliver en varig interstellar civilisation eller bukker under for de udfordringer, som vores egne kreationer udgør.

At bruge SETI som en linse, hvorigennem vi kan undersøge vores fremtidige udvikling, tilføjer en ny dimension til diskussionen om fremtiden for AI. Det er op til os alle at sikre, at når vi rækker ud efter stjernerne, gør vi det ikke som en advarsel for andre civilisationer, men som et fyrtårn af håb – en art, der lærte at trives sammen med AI.

Flere oplysninger: Michael A. Garrett, Er kunstig intelligens det store filter, der gør avancerede tekniske civilisationer sjældne i universet?, Acta Astronautica (2024). DOI:10.1016/j.actaastro.2024.03.052

Journaloplysninger: Acta Astronautica

Leveret af The Conversation

Denne artikel er genudgivet fra The Conversation under en Creative Commons-licens. Læs den originale artikel.




Varme artikler