Blockchain Balkanization -tutkimuksen välttäminen

Tekijä Everett Muzzy ja Mally Anderson

Yhteentoimivuuden priorisointi

Tämä kappale on ensimmäinen sarjassa, jossa tutkitaan yhteentoimivan toiminnallisuuden tilaa ja tulevaisuutta blockchain-ekosysteemissä. Määritämme “yhteentoimivuuden” tässä lohkoketjujen kyvyksi vaihtaa tietoja alustojen välillä – mukaan lukien ketjun ulkopuoliset tiedot ja tapahtumat – ilman kolmansien osapuolten apua. Tutkimalla Web2-arkkitehtuurin etenemistä varhaisesta teoriasta massan käyttöönottoon sarja väittää, että lohkoketjuprotokollan yhteentoimivuus ei ole mitään muuta kuin perusvaatimus tekniikan täyden potentiaalin toteuttamiseksi. Sarja osoittaa, kuinka ekosysteemi on tällä hetkellä vaarassa “balkanisoitumisesta” – ts. siitä tulee sarja yhdistämättömiä järjestelmiä, jotka toimivat rinnakkain mutta silti toisistaan ​​- kilpailun ja kaupallisen paineen edessä. Jotta ekosysteemi voisi asettaa etusijalle yhteentoimivuuden, sen on luotava turvallinen, radikaalisti hajautettu ja luotettava siirtokerros, jolle samanaikaisesti toimivat lohkoketjut voivat ankkuroida tapahtumansa. Blockchain-järjestelmien nykytilan vuoksi Ethereumin arkkitehtuuri muistuttaa lähinnä mitä vaaditaan tältä universaalilta juuriketjulta.

Balkanistumisen riski

Nykypäivän Web2-arkkitehtuurin ongelmat – etenkin käyttäjätietojen vaimentaminen, haavoittuvuus ja väärä hallinta – ovat jäljitettävissä alan poikkeamaan varhaisista Internet-arvoista, joissa alun perin painotettiin yhteentoimivuutta avaimeksi kestävään ja tasapuoliseen verkkoon kytkettyyn maailmaan. Nykyisessä tahdissaan blockchain-ekosysteemi on vaarassa vastaavasta “balkanisaatiosta”, jossa protokollan yhteentoimivuus on etusijalla, kun yritykset kilpailevat osoittamaan oman blockchain-käyttötapauksensa nopeammin kuin kilpailijansa. Riskinä on, että paineet valtavirtaiseen käyttöönottoon saattavat tulla ennen kuin Web3-infrastruktuuri on riittävän yhteentoimiva ja turvallinen, jotta sen alkuperäiset arkkitehdit näkyisivät täydellisesti. Web3 voi päätyä näyttämään samankaltaiselta kuin Web2 näyttää nykyään taloudellisen syrjäytymisen, tietojen vaimentamisen ja tietojen epävarmuuden kannalta – mutta sen sijaan sen takana on sarja lohkoketjuja, jotka kilpailukykyisen suunnittelun perusteella eivät toimi protokollatasolla.

Varhaisen Internetin oppitunnit

Verkko kehitettiin julkisesti rahoitettuna, akateemisena tutkimushankkeena 1960-luvulla, jotta voidaan lisätä ihmisten kykyä luoda, välittää ja jakaa tietoa. Varhaiset online-tietojen iteraatiot tapahtuivat perustekstinä ja kuvina, jotka oli yhdistetty ja jaettu hyperlinkkien verkon kautta. Siitä lähtien verkkotiedot ovat kehittyneet edustamaan omaisuuden (erityisesti rahan), käyttäjäprofiileja ja identiteettiä (erityisesti hajallaan olevia identiteetin digitaalisia fragmentteja).

Huolimatta siitä, kuinka laajasti digitaalisesti edustetun tiedon määritelmä on tullut, online-tiedonhallinnan teoria saa juurensa varhaisesta verkkoteoriasta. Rakentaessaan uutta tiedonsiirron kehitystä varhaiset Internet-tienraivaajat pyrkivät varmistamaan, että tieto verkossa kulkisi tavalla, joka matkisi ihmisen käyttäytymisen luonnollisia malleja. Internetin keksijä Tim Berners-Lee asetti tehtävänsä rakentaa verkkorakenne, joka mahdollisti humanistisen tiedonsiirron verrattuna yrityksen hierarkkiseen rakenteeseen – siihen asti, yksi hallitsevista rakenteista, jonka kautta ihmiset tuottivat ja hallitsivat suuria määriä tietoa. Yrityksen jäykkä, ylhäältä alaspäin suuntautuva rakenne pyrki sanelemaan tiedon liikkumisen vakiintuneella, mallinnetulla ja jäljitettävällä tavalla, mutta ihmisten viestinnän ja jakamisen todellisuus oli paljon epämääräisempi ja amorfisempi. Luonnollisen vertaisverkossa tapahtuvan sosiaalisen tiedonvaihdon jäljittelemiseksi Berners-Lee suositteli web-arkkitehtuurin yksinkertaisuutta. Tarjoamalla vain digitaalisen järjestelmän paljaat luut, informaatio voi kasvaa ja kehittyä luonnollisimmillaan – ja siten sen on oltava skaalautuva – tavalla. Heti kun “varastointimenetelmä… asettaa [d] omat rajoituksensa” siitä, miten asiat voitaisiin siirtää, tieto kärsii. Berners-Lee vahvisti vakaumustaan ​​siitä, että verkon tulisi jäljitellä luonnollisia rakenteita kuvaamalla verkon kasvu “solujen muodostamiseksi globaaleissa aivoissa” [lähde] ja toivon, että se saattaa jonain päivänä “peilata” tapaa, jolla ihmiset ovat vuorovaikutuksessa, seurustelevat ja elävät päivittäin [lähde].

Skaalautuvan, humanistisesti välitettävän digitaalisen tiedon saavuttamisen tavoite riippui ratkaisevasta käsitteestä: “päähän-lopputulos” [lähde]. “Loppu päähän” -vaikutus tarkoitti sitä, että Internetin käyttäjät (ts. Ne, jotka olivat tiedonsiirron kummassakin päässä) kokivat kyseisen tiedon johdonmukaisella tavalla. Ihmisten oli kyettävä omaksumaan toistuva käyttäytyminen, joka antaisi heille mahdollisuuden hakea, käsitellä ja lähettää tietoja suunnilleen samalla tavalla joka kerta, kun he olivat tekemisissä verkon kanssa. Toisin sanoen tekniikkaa joka palveli kuluttajaa, tietopaketin on tehtävä se johdonmukaisella tavalla kerta toisensa jälkeen, maantieteellisesti ja sisältötyyppien välillä.

Päähän-päähän-vaikutus voitaisiin saavuttaa kahdella tavalla: 1) Kolmannet osapuolet voisivat vakiinnuttaa itsensä välittäjinä tarjoamalla palveluja tietojen toimittamiseksi yhtenäisessä muodossa, kuten ne lähetettiin pisteestä A pisteeseen B. Nämä yritykset ja heidän insinöörit haluaisivat “On opittava järjestelmien suunnittelun taidetta” neuvotella ja hallita tiedon kulkua digitaalisten rajojen kautta, jotka erottivat yhteensopimattomat protokollat. 2) Toinen vaihtoehto oli, että kaikki protokollat, joiden kautta tietojen on ehkä välitettävä, ovat yhteentoimivia, varmistaen, että tiedot voisivat kulkea saumattomasti käyttäjältä käyttäjälle ilman esteitä, joiden rikkomiseen tarvitaan lisäneuvotteluja. Natiiviprotokollien yhteentoimivuus loisi “end to end” -vaikutelman automaattisesti sen sijaan, että luotettaisiin hyväksikäyttäjiin kolmansille osapuolille tämän yhtenäisyyden takaamiseksi kulissien takana.

Näistä kahdesta menetelmästä yhteentoimivuus oli ensisijainen lähestymistapa niille, jotka johtivat maksua varhaisessa verkkokehityksessä. Berners-Lee kuvaili tätä tavoitetta usein “universaalisuudeksi”, mikä viittaa siihen, että verkon tulevaisuuteen sisältyisi joukko erillisiä protokollia, mutta ne kaikki olisivat olemassa samassa makrokosmoksessa, mikä varmistaa yhteensopivuuden. Berners-Lee pyysi tekniikoita pitämään yleistä yhteentoimivuutta tärkeämmänä päämääränä kuin “hienot grafiikatekniikat ja monimutkaiset lisälaitteet” [lähde]. Hänen mielestään ei ollut yhtä tärkeää antaa periksi kasvavalle voitolle ja kaupallisuudelle (joka vaati hienoa grafiikkaa ja lisäpalveluita) kuin keskittyä protokollasuunnitteluun.

Kun kaupallistaminen kiihtyi ja Internetin julkinen alkuperä vähitellen väheni, se toi uudet kannustimet aikaisemmin pääosin akateemiselle teollisuudelle. Tämän seurauksena joukko hiljaisia ​​standardeja alkoi syntyä, kun yksityiset yritykset kilpailivat toistensa ylittämisestä uhkaamalla korjaamatonta hajautusta web-ekosysteemissä. Erillisten, yksittäisten järjestelmien luominen oli vastakohta pitkän aikavälin taloudelliselle optimoinnille. Eräässä Internetin perustiedotteessa Paul Baran huomautti vuonna 1964, että “Viestinnässä, kuten liikenteessäkin, on taloudellisinta, että monilla käyttäjillä on yhteinen resurssi sen sijaan, että kumpikin rakentaa oman järjestelmänsä”. Vuonna 1994 perustettiin World Wide Web Consortium perustamaan toimialan laajuiset standardit sen varmistamiseksi, että yhteentoimivuuden viesti säilyi keskeisenä painopisteenä verkon kehittämisessä. WWW-yhteenliittymän tavoite “hyödyntää verkon kaikki mahdollisuudet” [lähde] riippui siitä uskosta vain yhteentoimivuuden kautta – saavutetaan vakiinnuttamalla standardointi protokollien yli -, voisiko tällainen täysi potentiaali saavuttaa.

 

soluja muodostavat tim bernerit viittaavat konsensuksen tutkimukseen

 


Tietokannustimien siirtäminen

Katsaus sisällönhallintaan Internetissä tarjoaa piristävän esimerkin yhteentoimivuuden ja standardoinnin varhaisesta ideologiasta. Sisällönhallintaa – erityisesti arvon hankkimista, omistuksen luomista ja tekijänoikeuksien suojaamista – pyydettiin usein korostamaan Internetin mahdollisia puutteita ja innostamaan kehittäjiä, sääntelyviranomaisia ​​ja teknikkoja aloittamaan keskustelu näistä asioista aikaisin.

“Tiedot haluavat olla ilmaisia” on usein jäljillä Stewart Brandille vuoden 1984 konventissa. Informaation, ajattelun menneen, pitäisi levitä avoimesti ja orgaanisesti digitaalisessa muodossa samalla tavalla kuin lajin jäsenten välillä koko ihmishistorian ajan. Verkko mahdollisti lähes ääretön tiedon levittämisen tarjoten lopullisen paikan ilmaista taipumuksensa vapauteen analogisten viestintämenetelmien rajojen yli. Internet esitti suurennetun vaiheen tiedon lähettämistä varten, mutta teki sen omistamisen, niukkuuden ja arvon selkeiden määritelmien kustannuksella, joihin globaalit markkinat olivat tottuneet. Verkko antoi tiedon olla ilmaista, mutta paljasti myös mahdollisuuden hyödyntää sitä taloudellisesti. (Tämä oli totta muilla tietotekniikan kehityskausilla, kuten 1500-luvun painotalon vallankumous ja 1900-luvun alun radio – myönnetty eksponentiaalisesti pienemmässä mittakaavassa.) Tämä seuraus liittyy Brandin lainauksen toiseen ja harvemmin viitattuun osaan: “Tiedot haluavat olla kalliita” [Media Lab, s. 202-203]. Taaksepäin katsottuna Brandin väite voidaan muotoilla tarkemmin sanalla “tieto haluaa olla arvostettu mihin se kannattaa “, mikä tarkoittaa joskus – vaikkakaan ei aina – se on kallista. Internetin uudet tiedonkulkumallit ja -ominaisuudet tekivät digitaalisen tiedon oikean arvioinnin mahdottomaksi. Esimerkiksi sisällön kappaleen alkuperää ei voida jäljittää tarkasti, jotta sen alkuperäiselle tekijälle saadaan asianmukainen korvaus. Sisällön vakiomuotoisten omistusprotokollien puuttuminen antoi kolmansien osapuolten mahdollisuuden astua sisään ja tarjota kyseinen standardointi – tai tarkemmin illuusio standardoinnista – helpottamalla päittäin vaikutus, joka todettiin ratkaisevaksi Internetin laajennetulle käytölle. Ja he tekivät tämän kaikenlaiselle tiedolle, ei vain visuaaliselle ja kirjoitetulle sisällölle. Illuusio taustaprotokollan yhteentoimivuudesta lisääntyi kasvavalla steriloinnilla siitä, mitä käyttäjät kokivat käyttöliittymässä. Kate Wagner kirjoitti varhaisen Internet-suunnittelun idiosynkraasien katoamisesta 90-luvun ja 2000-luvun alkupuolella, viittaa “… kuolevaan henkiin alkuperäiskansallisesta verkkoestetiikasta, jonka määrittelee rajoituksen puuttuminen sivun mahdolliselle tai miltä pitäisi näyttää ”[lähde]. Kuluttajille suunnattu verkko standardisoitiin yhä enemmän, mutta taustakuva pysyi hiljaisena ja kypsä tietojen hyödyntämiseen ja voittoon.

Kun kolmannet osapuolet astuivat sisään ja niistä tuli ratkaisevia tavanomaiselle tiedonsiirrolle, he alkoivat sanella tiedon “arvon”. Tämä varhainen taloudellinen dynamiikka kannusti luomaan keinotekoista tiedon puutetta. Kieltämällä tietojen luonnollinen taipumus olla vapaa luo keinotekoisesti korkeita hintalappuja, jotka liittyvät erilaisiin tietoihin sen sijaan, että sallittaisiin tietojen arvostamisen sen arvoiseksi. Nämä yritykset ovat pärjänneet hyvin rajoittamalla hallitsemansa tiedonkulkua. He yrittävät kohdella tietoja kuten useimmat muut maapallon hyödykkeet, missä yksinkertainen kysynnän ja tarjonnan teoria määrää, että niukkuus on yhtä suuri kuin arvo. Kuten John Barlow totesi vuonna 1994 julkaisemassaan “Ideoiden talous”, “digitaalinen tekniikka kuitenkin irrottaa tietoa fyysisestä tasosta” [lähde]. Käsittelemällä tietoa fyysisenä tuotteena ja hallitsemalla tai rajoittamalla sen kykyä liikkua vapaasti kolmannet osapuolet tukahduttivat tiedon ainutlaatuisen laadun – että siitä tulee arvokkaampi yleisempi se on. “Jos oletamme, että arvo perustuu niukkuuteen, kuten fyysisten esineidenkin kohdalla”, Barlow väittää, maailma olisi vaarassa kehittää tekniikoita, protokollia, lakeja ja talouksia, jotka ovat ristiriidassa tiedon todellisen ihmisluonteen kanssa [lähde].

“[Internetin] merkitys ei ole verkkoteknologiassa, vaan ihmisten aikaansaamissa perustavanlaatuisissa muutoksissa”, kirjoitti Peter Denning vuonna 1989 pohditessaan Internetin ensimmäisiä kaksikymmentä vuotta [lähde]. Päivän lopussa Web2 lisääntyi, koska end-to-end-vaikutus toteutettiin onnistuneesti, saavutettiin massa ja annettiin jokapäiväisille käyttäjille illuusio yhden globaalin Internetin. Vaikka yhteentoimivuus oli Berners-Leen ja muiden varhaisten Internet-arkkitehtien keskeinen tavoite, loppukäyttäjille (ja siten niistä hyötyville yrityksille) oli merkitystä vain, että Internet skaalautui jokapäiväiseen hyödyllisyyteen mahdollisimman nopeasti. Tiedot ilmestyi matkustaa orgaanisesti ja humanistisesti; sisältö ilmestyi hankittava ja todennettava; ja tiedot ilmestyi olla laajalti saatavilla ja luotettava. Kulissien takana samat kolmansien osapuolten yritykset (tai heidän jälkeläisensä) jäivät kuitenkin alusta asti Internetin tiedonsiirron vartijoiksi – joilla on merkittäviä seurauksia.

Varhaiset Internet-teoreetikot eivät aikoneet tekniikan pysyä riippumattomana yksityisistä yrityksistä ikuisesti. Itse asiassa Internetin potentiaalin toteutuminen perustui oletukseen, että halu laajamittaiseen käyttöön pakottaisi yksityisiä yrityksiä astumaan mukaan ja rahoittamaan nopeamman ja maailmanlaajuisen kehityksen. Yksityisten yritysten saapuminen kuitenkin aiheutti ekosysteemin lopullisen balkanisaation.

Balkanisaation puhkeaminen

Internetin arkkitehtien alkuperäinen visio oli avoin, hajautettu ja hajautettu “verkkojen verkosto” [lähde]. Miljoonien julkisten Yhdysvaltain tutkimusdollarien rahoittama ja alun perin akateemisena hankkeena suunniteltu Internet-kehityksen ensimmäinen 20 vuotta eteni suhteellisen hämärässä. Sen alkuperäiset rahoittajat, erityisesti ARPA (Advanced Research Projects Agency, josta myöhemmin tuli DARPA) ja National Science Foundation (NSF), eivät välttämättä odottaneet voittoa hankkeesta, joten varhainen Internet skaalautui hitaasti ja tarkoituksella [lähde].

Ensimmäiset verkostoitumistapaukset olivat käytännöllisiä: tutkimusyliopistojen keskusyksiköt olivat kohtuuttoman kalliita, joten resurssien jakaminen niiden kesken johtaisi parempaan tutkimukseen. Hallitus hallitsi näitä verkostoja, mikä tarkoittaa, että kaikkia osallistujia kannustettiin jakamaan koodinsa varmistaakseen jatkuvan rahoituksen ja ylläpitääkseen avoimen lähdekoodin eetosta. Protokollat ​​olivat syntyneet 1970-luvun puolivälissä, ja yhteentoimivat digitaalisen viestinnän standardit syntyivät pian sen jälkeen käytännön syistä: koneiden oli voitava puhua keskenään. Vuoteen 1985 mennessä NSFNET-verkko oli liittänyt kaikki tärkeimmät yliopiston keskusyksiköt muodostaen Internetin ensimmäisen selkärangan sellaisena kuin me sen tunnemme. 1980-luvun lopulla enemmän osallistujia parveni tähän runkoverkkoon – tarpeeksi, että liikenne alkoi ylittää verkon kykyä isännöidä sitä.

Verkon ruuhkautuminen oli ensisijainen huolenaihe, kun tekniikka lisääntyi. Vuonna 1991 Vinton Cerf – TCP / IP-protokollien suunnittelija ja toinen merkittävä Internet-arkkitehti – tunnusti infrastruktuurin skaalautumisen kasvavan haasteen: “Nykyaikaisen tietoliikennetekniikan kiehuvassa fermentaatiossa kriittinen haaste on selvittää, miten Internet-arkkitehtuuri kehittyi viimeisten 15 vuoden aikana on muututtava sopeutuakseen 1990-luvun kehittyviin gigabittien nopeustekniikoihin “[lähde]. NSFNET pakotti kaupallisen toiminnan kieltämään, mutta se ei silti riittänyt rajoittamaan liikennettä. Kielto sai aikaan yksityisten verkkojen rinnakkaisen kehityksen kaupallisen toiminnan ylläpitämiseksi.

Vastauksena tähän rinnakkaisverkkotrendiin ja NSFNETin aiheuttamaan rasitukseen NSF: n puheenjohtaja Stephen Wolff ehdotti infrastruktuurikerroksen yksityistämistä. Tämä lieventäisi ruuhkia tuomalla yksityiset investoinnit verkon kapasiteetin parantamiseen, antamaan NSFNETin integroitua yksityisiin verkkoihin yhdeksi yhteentoimivaksi järjestelmäksi ja vapauttamaan projektin hallituksen valvonnasta, jotta Internetistä voisi tulla joukkotiedotusväline. Vuoteen 1995 mennessä NSFNET poistettiin kokonaan ja sen tilalle tuli yksityisten verkkojen ekosysteemi. Sen jälkeen viisi yritystä (UUNET, ANS, SprintLink, BBN ja MCI) muodostivat uuden Internet-infrastruktuurikerroksen. Heillä ei ollut todellisia kilpailijoita, sääntelyvalvontaa, politiikkaa tai hallintoa, joka ohjasi heidän vuorovaikutustaan, eikä minkään valtion yksikön asettamia vähimmäistulosvaatimuksia. Vaikka tämä täysin avoin ja kilpailullinen ympäristö oli melko ennennäkemätön, sillä ei ollut juurikaan vastustusta varhaisen Internetin ajattelevien johtajien keskuudessa, koska ne aikoivat aina antaa verkot yksityisille infrastruktuurin tarjoajille, kun niiden ylläpitäminen oli riittävän yleistä. Toisin sanoen he odotettavissa kannustimet siirtyä, kun yleisö omaksuu tekniikan. Verkon protokolla- ja linkkikerrokset olivat kehittyneet suhteellisen hämärässä; markkinat muodostuivat vain verkostoitumis- tai infrastruktuurikerroksessa.

Viisi uutta suurta palveluntarjoajaa liittivät ja integroivat paikalliset ja pienimuotoiset verkot kaikkialla Yhdysvalloissa. Pohjimmiltaan nämä yritykset alkoivat toimia välittäjinä ja niistä tuli tosiasiallisia palveluntarjoajia, koska ne valvoivat kaikkia järjestelmän tietoja jossakin sen lähetyshetkessä. Tämä organisaatio näyttää olevan keskitetysti keskitetty verrattuna hajautetun, joustavan järjestelmäarkkitehtuurin priorisointiin siihen asti, mutta Internet-arkkitehdit olivat tietoisia siitä. Koska palveluntarjoajia oli enemmän kuin yksi, yksityistämisen kannattajat katsoivat kuitenkin riittävän kilpailun estävän infrastruktuuripalvelukerroksen balkanisaation. NSFNET: n purkamisen jälkeisinä vuosina näin ei ollut käytännössä. Infrastruktuurikerroksen yksityistäminen johti palveluntarjoajien oligopoliin, joka hallitsi olennaisesti koko Internetin tietovirtaa täysin salaa, hallitsemalla tiedon liikkumista ja läpäisykykyä. He voisivat myöntää toisilleen pikakuvakkeita verkon ylikuormituksen poistamiseksi ja tarjota etuuskohtelua verkkosivustoille, jotka maksavat nopeammasta sisällön toimittamisesta. Näiden palveluntarjoajien väliset sopimukset olivat täysin tuntemattomia, koska niitä ei ollut velvoitettu julkistamaan ehtojaan, joten pienemmät palveluntarjoajaverkostot eivät voineet kilpailla markkinoilla.

Joten yritys 1990-luvun alussa välttää Internetin balkanisaatio johti lopulta vahingossa tapahtuvaan, äärimmäiseen keskittämiseen, jossa viiden infrastruktuurin tarjoajan kaapeli sai hallinnan koko protokollakerroksesta. Yhdessä mielessä tämä on opetus natiivien hallintomenettelyjen ja kohtuullisen sääntelyn merkityksestä terveiden uusien teknologioiden markkinoiden kehittämisessä. Hyvä sääntely, joka johtaa oikeudenmukaisempaan ja avoimempaan kilpailuun, johtaa lopulta rikkaampiin markkinoihin. Jossakin yleisen edun säilyttämisessä otetaan käyttöön myös palautesilmukka, jolla tarkistetaan uuden tekniikan kehitys sen mittakaavassa. Yksi yksityisen infrastruktuurin kerroksen muotoilun puute sen muotoutuessa oli se, että NSFNETistä siirrettiin riittämättömästi huomiota turvallisuuteen, missä se ei ollut ollut yhtä kriittinen huolenaihe. ei turvamekanismeja eikä R&Turvallisuuskysymyksissä D toi yleensä haavoittuvuuksia, joita on edelleen olemassa. Tahallisen hallinnon melkein täydellinen puute on johtanut myös niin sanotun “verkon neutraalisuuden” äärimmäiseen puuttumiseen, mikä tarkoittaa verkon nopeuden epäoikeudenmukaista asettamista korkeimmalle tarjoajalle ja kaiken kaikkiaan huomattavasti epätasaista pääsyä verkkoihin. Balkanisaation estämiseksi toteutetut toimenpiteet johtivat sen sijaan täysin, mutta peruuttamattomasti balkanisoituun infrastruktuurikerrokseen.

Tämän 1990-luvun alun palveluntarjoajien keskittämisen opetukset ovat varsin merkityksellisiä nykyisessä lohkoketjun ekosysteemin kehityksen vaiheessa. Yhteentoimivuusstandardien vahvistaminen tulee todennäköisesti esiin mittakaavassa toiminnallisuuden välttämättömyytenä. Tämä pätee Internetin protokollakerrokseen, ja se todennäköisesti toteutuu Web3: ssa, kun riittävät verkkopaineet ja siten taloudelliset kannustimet ilmaantuvat. Mutta vaikka verkon protokollakerros oli julkisesti rahoitettu eikä sen vuoksi ollut odotettavissa voittoa yli kahdenkymmenen vuoden ajan, lohkoketjujen ensimmäinen aalto on ollut luonteeltaan pohjimmiltaan taloudellista, ja taloudelliset kannustimet olivat läsnä alusta asti ja keskeisiä aina protokollakerros. Joten vaikka Web2: n ja Web3: n kehityksessä on yhteisiä malleja, balkanisaation riski ilmenee hyvin eri aikoina niiden aikatauluissa.  

 

balkanistinen lainaus

 

Yhteentoimivuuden priorisointi

Huolimatta siitä, että ennusteet sen olemassaolosta ovat olleet olemassa vuosikymmenien ajan ja kryptografinen teoria vuosikymmeniä pidempään, blockchain-tekniikka käytännössä – puhumattakaan ohjelmoitavasta, käyttökelpoisesta blockchain-tekniikasta – on edelleen syntymässä. Tällaisessa varhaisessa vaiheessa murtumaton innovaatio ja kilpailu ovat tärkeitä ekosysteemien kasvulle. Nykypäivän varhaisessa blockchain-teollisuudessa on kuitenkin samat paineet kuin 1980- ja 90-luvun varhaisessa Internet-teollisuudessa. Blockchainin mahdollisuus on maailmaa muuttava – ja siksi myös riski.

Blockchain-tekniikan mahdollisuus, kuten tämä sarja väittää, riippuu kaikkien suurten blockchain-hankkeiden yhteentoimivuudesta perustavanlaatuinen näiden protokollien kehittämiseen. Vain varmistamalla, että kaikki lohkoketjut, olivatpa ne täysin etuyhteydettömiä tai kiivaasti kilpailevia toistensa kanssa, upottavat yhteensopivuuden perustoimintoihinsa, voivat teknologian ominaisuudet laajentua maailmanlaajuiseen käyttöön ja seurauksiin.

Pelkän mediavoiman myötä salaus-, tunnisteiden myynti ja tunnisteiden markkinat ovat lisääntyneet viimeisten kahden vuoden aikana, blockchain-yrityksiin kohdistuu valtava paine todistaa tekniikan käyttö, kannattavuus ja kaupallistaminen. Tällä tavoin kannustimet, jotka työnsivät Internetiä priorisoimaan yhteentoimivuutta ja keskittymään teknologian jokapäiväiseen käytettävyyteen, eivät ole erilaisia ​​kuin nykyään. Jos jotain, kykymme olla aina yhteydessä ja vastaanottaa reaaliaikaisia ​​päivityksiä kaikkialla maailmassa varmistaa, että blockchain-ekosysteemi on alle lisää paine osoittaa kaupalliset kykynsä kuin varhainen Internet vastaavassa kehitysvaiheessa. Kun yritykset kilpailevat todistaakseen olevansa “parempia” tai “markkinavalmiimpia” kuin muut olemassa olevat protokollat, ne luopuvat yhteentoimivuudesta keskittyen – kierrättämään Berners-Lee: n sanoja – “hienoihin grafiikatekniikoihin ja monimutkaisiin lisäpalveluihin”, jotka houkuttelevat enemmän lyhytnäköisille sijoittajille ja kuluttajille.

Kilpailu välittömän toiminnallisuuden lupaamisesta on taloudellisesti tehokasta, mutta sen jatkaminen voi vaarantaa blockchain-teollisuuden koko kehityksen. Jos yritykset jatkavat sivuuttamasta yhteentoimivuutta ja sen sijaan kumpikin rakentavat oman patentoidun lohkoketjunsa ja yrittävät sietää sitä oletettua markkinakilpailijaa vastaan, ekosysteemi voi vuosien kuluessa näyttää hyvin samankaltaiselta kuin yhteentoimimattoman Internetin alkuaikoina. Meille jää hajautettu kokoelma silitettyjä lohkoketjuja, joita kutakin tukee heikko solmujen verkko ja jotka ovat alttiita hyökkäyksille, manipuloinnille ja keskittämiselle.

Kuvittele, että blockchain-tekniikka ei ole yhteensopiva tulevaisuuden kanssa, ei ole liian vaikeaa. Kaikki materiaalit ja kuvat kuvan maalaamiseksi ovat olemassa varhaisessa Internet-opissa, ja niistä on jo keskusteltu tämän kappaleen ensimmäisessä osassa. Aivan kuten nykypäivän Internetissä, Web3: n tärkein tietojen laatu on “end to end” -vaikutus. Kuluttajien, jotka ovat vuorovaikutuksessa Web3: n kanssa, täytyy kokea saumaton vuorovaikutus riippumatta siitä, mitä selainta, lompakkoa tai verkkosivustoa he käyttävät tekniikan laajentamiseksi laajamittaiseen käyttöönottoon. Jotta tämä päämäärä saavutettaisiin, tiedon on annettava virrata orgaanisella, humanistisella tavalla. Sen on annettava olla vapaa. Lohkoketjulla on kuitenkin tänään ei tieto tiedoista, joita saattaa olla eri lohkoketjuissa. Bitcoin-verkossa elävillä tiedoilla ei ole tietoa Ethereum-verkossa elävistä tiedoista. Siksi tiedolta evätään sen luonnollinen halu ja kyky virrata vapaasti.

Informaation hiljaisuuden seuraukset lohkoketjussa, jossa se luotiin, ovat suoraan Internetin historiakirjoista. Internet on keskitetty infrastruktuurikerrokseen, koska julkisen innostuksen ja joukkomuuntauksen vuoksi paineet kasvavat. Jos Web3-ekosysteemi saavuttaa kyseisen pisteen ennen kuin protokollien yhteentoimivuus on riittävän laaja, sama tapahtuu uudelleen. Ilman natiivia lohkoketjujen yhteentoimivuutta kolmannet osapuolet astuvat hallintaansa tiedonsiirrosta lohkoketjusta toiseen, poimien arvoa itselleen prosessissa ja luomalla sellaisen kitkan, jonka tekniikan on tarkoitus poistaa. Heillä on pääsy kyseisiin tietoihin ja niiden hallinta, ja heillä on kyky luoda keinotekoinen niukkuus ja paisutettu arvo. Visio blockchain-pohjaisesta Internet-tulevaisuudesta, jonka teollisuus niin usein herättää, ei ole mikään ilman yhteentoimivuutta. Ilman sitä tulemme tulevaisuuteen, jossa maailmanlaajuinen verkko on lähes identtinen nykyisen hallitsevan Web2-maiseman kanssa. Päivittäiset kuluttajat nauttivat silti sujuvasta ja johdonmukaisesta vuorovaikutuksestaan ​​Web3: n kanssa, mutta heidän tietonsa eivät ole turvallisia, heidän henkilöllisyytensä ei ole täydellinen eikä heidän rahansa ole heidän omaansa..

Katse eteenpäin

Kaikki tämä ei tarkoita sitä, että teollisuus olisi kokonaan unohtanut tai hylännyt yhteentoimivuuden merkityksen. Todisteet käsitteestä, kuten BTC-rele, konsortiot, kuten Enterprise Ethereum Alliance, ja hankkeet, kuten Wanchain osoittavat, että jotkut ihmiset tunnustavat edelleen yhteentoimivuuden kriittisen arvon. On hyvät mahdollisuudet, että markkinapaineet kannustavat blockchain-ekosysteemiä kohti yhteentoimivuutta riippumatta siitä, miten asiat kehittyvät lyhyellä aikavälillä. Reaktionaalinen vs. ennakoiva yhteentoimivuus voi silti kertoa eron arvon sieppauksen ja tietojen hyödyntämistavan välillä. Reaktionaalinen yhteentoimivuus – ts. vain päättää, että yhteentoimivuuden pitäisi olla ratkaiseva tekijä estoketjussa monta vuotta tiellä, kun markkinat sitä vaativat – tarjoaa mahdollisuuden kolmansille osapuolille astua sisään ja helpottaa tätä yhteentoimivuutta. He hyötyvät palveluistaan ​​ja heillä on epäsymmetrinen pääsy käyttäjien tietoihin. Ennakoiva yhteentoimivuus – ts. varmistamalla, että yhteentoimivuus koodataan protokolliin tässä ekosysteemin syntymässä olevassa vaiheessa – toisaalta varmistetaan, että tiedot voidaan siirtää turvallisesti ja tehokkaasti lohkoketjujen välillä ilman, että heidän on siirrettävä hallintaa välittävälle kolmannelle osapuolelle.

Kaupallistamisen ja avoimen lähdekoodin yhteentoimivuuden välillä on epäilemättä välttämätön ja terve tasapaino. Kaupallistaminen edistää kilpailua ja innovaatioita, kannustaa kehittäjiä ja yrittäjiä rakentamaan asiakkailleen parhaiten soveltuvia järjestelmiä. Tasapaino on kuitenkin osoittautunut epävarmaksi aiemmin. Kun paine kiinnittyy lohkoketjuun lupauksensa täyttämiseksi, huomaamme, että kaupallistaminen asettaa yhä enemmän stressiä lohkoketjuille, jotta ne olisivat markkinoilla valmiita riippumatta siitä, mitä ideologioita sillä on uhrata lyhyellä aikavälillä.

ConsenSys-tutkimus

 

 

Tietoja kirjoittajista

Everett Muzzy

Everett on kirjailija ja tutkija ConsenSysissä. Hänen kirjoituksensa on ilmestynyt Hacker Noon, CryptoBriefing, Moguldom, ja Coinmonks.

Mally Anderson

Mally on kirjailija ja tutkija ConsenSysissä. Hänen kirjoituksensa on ilmestynyt MIT: ssä Journal of Design and Science, MIT: t Innovaatiot, Kvartsi, ja Esquire.

Hanki ConsenSys Researchin uusimmat uutiset

Rekisteröidy ilmoittaaksesi tulevista ConsenSys-tutkimusjulkaisuista

Rekisteröidy →

Mike Owergreen Administrator
Sorry! The Author has not filled his profile.
follow me
Like this post? Please share to your friends:
Adblock
detector
map