
Shkenca e hapur i bën mirë kërkimeve, por jo sigurisë
Për dekada, njohuritë shkencore janë mbyllur fort pas kyçit dhe çelësit të mureve të pagave të gazetave tepër të shtrenjta.
Por vitet e fundit një valë është kthyer kundër barrierave të ngurta dhe të vjetruara të botimit tradicional akademik.
Lëvizja e shkencës së hapur ka marrë vrull për ta bërë shkencën të aksesueshme dhe transparente për të gjithë.
Gjithnjë e më shumë revistat kanë botuar kërkime që mund të lexojnë falas për këdo, dhe shkencëtarët kanë ndarë të dhënat e tyre mes njëri-tjetrit.
Shkencëtarëve nuk u duhet më të kalojnë nëpër rrjedhën e procesit të rishikimit përpara se kërkimi i tyre të jetë gjerësisht i disponueshëm.
Ata mund të paraqesin një punim ta bëjnë atë të shfaqet në internet ditën tjetër.
Megjithëse shpejtësia e botimit me akses të hapur do të thotë që kërkimet e rëndësishme dalin më shpejt, kjo do të thotë gjithashtu se kontrollet e nevojshme për të siguruar që shkenca e rrezikshme të mos hidhet në internet janë më pak të përpikta.
Në veçanti, fusha e biologjisë sintetike, e cila përfshin inxhinierinë e organizmave të rinj përballet me atë që quhet dilemë me përdorim të dyfishtë.
Ndërkohë që kërkimet e lëshuara shpejt mund të përdoren për të mirën e shoqërisë , gjithashtu mund të zgjidhet nga aktorë të këqij për të kryer bioluftë ose bioterrorizëm.
“Ekziston rreziku që gjërat e këqija do të ndahen,” thotë James Smith, një bashkautor në gazetë dhe një studiues në Universitetin e Oksfordit. “Dhe në të vërtetë nuk ka procese në vend për momentin për ta trajtuar atë.”
Ndërsa rreziku i kërkimit me përdorim të dyfishtë është një problem i vjetër, “shkenca e hapur paraqet sfida të reja dhe të ndryshme”, thotë Gigi Gronvall, një eksperte e biosigurisë.
“Këto rreziqe kanë qenë gjithmonë aty, por me përparimet në teknologji, kjo i zmadhon ato.”
Rreziqet e botimit të hapur nuk ndalen në kërkimin biologjik. Në fushën e AI, një lëvizje e ngjashme drejt ndarjes së hapur të kodit dhe të dhënave do të thotë se ka potencial për keqpërdorim. Në nëntor 2019, OpenAI njoftoi se nuk do të publikonte plotësisht modelin e saj të ri gjuhësor GPT-2, i cili mund të gjenerojë në mënyrë të pavarur tekst dhe t’u përgjigjet pyetjeve.
Në punimin e tyre, Smith dhe Sandbrink bëjnë rekomandime për t’u mbrojtur nga rreziqet e mundshme të biosigurisë.
Për shembull, kur studiuesit postojnë të dhëna dhe kode në depo, mund t’u kërkohet të bëjnë një deklaratë se ato të dhëna nuk janë të rrezikshme.