Shkenca e hapur i bën mirë kërkimeve, por jo sigurisë

Për dekada, njohuritë shkencore janë mbyllur fort pas kyçit dhe çelësit të mureve të pagave të gazetave tepër të shtrenjta.

Por vitet e fundit një valë është kthyer kundër barrierave të ngurta dhe të vjetruara të botimit tradicional akademik.

Lëvizja e shkencës së hapur ka marrë vrull për ta bërë shkencën të aksesueshme dhe transparente për të gjithë.

Gjithnjë e më shumë revistat kanë botuar kërkime që mund të lexojnë falas për këdo, dhe shkencëtarët kanë ndarë të dhënat e tyre mes njëri-tjetrit.

Shkencëtarëve nuk u duhet më të kalojnë nëpër rrjedhën e procesit të rishikimit përpara se kërkimi i tyre të jetë gjerësisht i disponueshëm.

Ata mund të paraqesin një punim ta bëjnë atë të shfaqet në internet ditën tjetër.

Megjithëse shpejtësia e botimit me akses të hapur do të thotë që kërkimet e rëndësishme dalin më shpejt, kjo do të thotë gjithashtu se kontrollet e nevojshme për të siguruar që shkenca e rrezikshme të mos hidhet në internet janë më pak të përpikta.

Në veçanti, fusha e biologjisë sintetike, e cila përfshin inxhinierinë e organizmave të rinj përballet me atë që quhet dilemë me përdorim të dyfishtë.

Ndërkohë që kërkimet e lëshuara shpejt mund të përdoren për të mirën e shoqërisë , gjithashtu mund të zgjidhet nga aktorë të këqij për të kryer bioluftë ose bioterrorizëm.

“Ekziston rreziku që gjërat e këqija do të ndahen,” thotë James Smith, një bashkautor në gazetë dhe një studiues në Universitetin e Oksfordit. “Dhe në të vërtetë nuk ka procese në vend për momentin për ta trajtuar atë.”

Ndërsa rreziku i kërkimit me përdorim të dyfishtë është një problem i vjetër, “shkenca e hapur paraqet sfida të reja dhe të ndryshme”, thotë Gigi Gronvall, një eksperte e biosigurisë.

“Këto rreziqe kanë qenë gjithmonë aty, por me përparimet në teknologji, kjo i zmadhon ato.”

Rreziqet e botimit të hapur nuk ndalen në kërkimin biologjik. Në fushën e AI, një lëvizje e ngjashme drejt ndarjes së hapur të kodit dhe të dhënave do të thotë se ka potencial për keqpërdorim. Në nëntor 2019, OpenAI njoftoi se nuk do të publikonte plotësisht modelin e saj të ri gjuhësor GPT-2, i cili mund të gjenerojë në mënyrë të pavarur tekst dhe t’u përgjigjet pyetjeve.

Në punimin e tyre, Smith dhe Sandbrink bëjnë rekomandime për t’u mbrojtur nga rreziqet e mundshme të biosigurisë.

Për shembull, kur studiuesit postojnë të dhëna dhe kode në depo, mund t’u kërkohet të bëjnë një deklaratë se ato të dhëna nuk janë të rrezikshme.