Ennen tiedemiehet testasivat hypoteeseja. Nykyään ainakin tietojenkäsittelyssä on tyypillisempää kehittää algoritmeja ja rakentaa prototyyppejä.
Jos tällaiselle tutkimukselle pitäisi asettaa jokin hypoteesi, niin se olisi muotoa "menetelmällä X saa ratkaistua ongelman Y (paremmin kuin menetelmällä Z)".
Varsinaiset kokeet muistuttavat enemmän ohjelmiston testaamista eli laadunvalvontaa. Tällöin olennaista on se, kuinka laajoja osaongelmia algoritmi/prototyypi pystyy ratkomaan. Yleensä algoritmin suoritusnopeus on ainoa selkeästi mitattava suure, joka voidaan esittää kivana kaaviona.
Myös uuden tiedon luonne on erilainen. Prototyyppien tapauksessa merkittävä osa tiedosta on "upotettuna" koodiin. Koodi ei määrity pelkästään siinä käytetyn perusalgoritmin mukaan. Tärkeää on myös moduulien väliset suhteet sekä erilaiset datan esikäsittelyvaiheet.
Tieteelliset julkaisut eivät kerro, mitä hypoteesia kokeet vahvistavat: Ne antavat reseptejä, joilla ongelmaa X voi lähteä ratkomaan.
Prototyyppitutkimuksen tarkoitus voi olla myös asiantuntijuuden kehittäminen. Tällöin tutkijat ratkovat ongelmaa ensin akateemisessa ympäristössä, ja siirtyvät myöhemmin tekemään kaupallista tuotetta samalle alalle - joko käyttäen pohjana akateemista prototyyppiä, tai implementoiden kaiken alusta. Tämä tuo sellaisia painotuksia, joita vanhassa tieteessä ei ole - on kiinnitettävä huomiota tekijänoikeuksiin ja tuotteistamiseen. Jonkinlaisena välimuotona voi pitää akateemikkojen ja kaupallisten tutkimuskeskusten ylläpitämiä ilmaisia algoritmikirjastoja (esim. AT&T:n Finite State Machine Library).
Paljon puhutaan tieteen tekijöiden arvostelemisesta julkaisujen määrällä. On epäselvää, kuinka paljon erilaiset tutoriaalit ja undergraduate-tason popularisoinnit painavat verrattuna tutkimusjulkaisuihin. Hyvillä tutoriaalisivuilla saa ainakin näkyvyyttä muiden tutkijoiden keskuudessa.
No comments:
Post a Comment