AlbanianEnglish

Shkenca e hapur i bën mirë kërkimeve, por jo sigurisë

Për dekada, njohuritë shkencore janë mbyllur fort pas kyçit dhe çelësit të mureve të pagave të gazetave tepër të shtrenjta.

Por vitet e fundit një valë është kthyer kundër barrierave të ngurta dhe të vjetruara të botimit tradicional akademik.

Lëvizja e shkencës së hapur ka marrë vrull për ta bërë shkencën të aksesueshme dhe transparente për të gjithë.

Gjithnjë e më shumë revistat kanë botuar kërkime që mund të lexojnë falas për këdo, dhe shkencëtarët kanë ndarë të dhënat e tyre mes njëri-tjetrit.

Shkencëtarëve nuk u duhet më të kalojnë nëpër rrjedhën e procesit të rishikimit përpara se kërkimi i tyre të jetë gjerësisht i disponueshëm.

Ata mund të paraqesin një punim ta bëjnë atë të shfaqet në internet ditën tjetër.

Megjithëse shpejtësia e botimit me akses të hapur do të thotë që kërkimet e rëndësishme dalin më shpejt, kjo do të thotë gjithashtu se kontrollet e nevojshme për të siguruar që shkenca e rrezikshme të mos hidhet në internet janë më pak të përpikta.

Në veçanti, fusha e biologjisë sintetike, e cila përfshin inxhinierinë e organizmave të rinj përballet me atë që quhet dilemë me përdorim të dyfishtë.

Ndërkohë që kërkimet e lëshuara shpejt mund të përdoren për të mirën e shoqërisë , gjithashtu mund të zgjidhet nga aktorë të këqij për të kryer bioluftë ose bioterrorizëm.

“Ekziston rreziku që gjërat e këqija do të ndahen,” thotë James Smith, një bashkautor në gazetë dhe një studiues në Universitetin e Oksfordit. “Dhe në të vërtetë nuk ka procese në vend për momentin për ta trajtuar atë.”

Ndërsa rreziku i kërkimit me përdorim të dyfishtë është një problem i vjetër, “shkenca e hapur paraqet sfida të reja dhe të ndryshme”, thotë Gigi Gronvall, një eksperte e biosigurisë.

“Këto rreziqe kanë qenë gjithmonë aty, por me përparimet në teknologji, kjo i zmadhon ato.”

Rreziqet e botimit të hapur nuk ndalen në kërkimin biologjik. Në fushën e AI, një lëvizje e ngjashme drejt ndarjes së hapur të kodit dhe të dhënave do të thotë se ka potencial për keqpërdorim. Në nëntor 2019, OpenAI njoftoi se nuk do të publikonte plotësisht modelin e saj të ri gjuhësor GPT-2, i cili mund të gjenerojë në mënyrë të pavarur tekst dhe t’u përgjigjet pyetjeve.

Në punimin e tyre, Smith dhe Sandbrink bëjnë rekomandime për t’u mbrojtur nga rreziqet e mundshme të biosigurisë.

Për shembull, kur studiuesit postojnë të dhëna dhe kode në depo, mund t’u kërkohet të bëjnë një deklaratë se ato të dhëna nuk janë të rrezikshme.

You don't have permission to register