Mithilfe der Google Cloud-Technologie testete Data Reply sechs verschiedene Big-Data-Technologien (GeoSpark, GeoMesa, Hive, MongoDB, ElasticSearch und Postgres-XL) und erstellte ein Benchmarking für deren Datenaufnahme- und Abfragegeschwindigkeiten. Alle sechs Technologien wurden gemäß den empfohlenen Einstellungen eingerichtet und anschließend so angepasst, dass die Ausgangsbedingungen weitgehend gleich waren. Für einige der Technologien entwickelte Data Reply auch spezielle Dienstprogramme zur Datenaufnahme, um die geforderte Skalierbarkeit bei gleichzeitiger Unterstützung der korrekten Datenstruktur zu bieten und die Einhaltung des GeoJson-Standards und der Spezifikationen des DSTL sicherzustellen.
Zur Ausführung von Anfragen setzte Data Reply SQL-Anfrage-Beschreibungen in der DSL der einzelnen Technologie ein, in einigen Fällen mit den entsprechenden Anpassungen, wenn die DSL-Syntax nicht direkt auf die Anfrage abgebildet werden konnte. Außerdem erstellte Data Reply die grundlegende Infrastruktur, um eine clusterinterne Replikation für Hochverfügbarkeit und Fehlertoleranz zu ermöglichen. So konnten 20 Milliarden Datenpunkte gleichzeitig auf verschiedenen Maschinen vorgehalten werden, mit einer einzigen Schreibanfrage, für den Fall, dass ein Knoten im Cluster ausfällt oder aufgrund von Faktoren wie Netzwerkpartionierung nicht verfügbar ist.
Nach Abschluss dieser Arbeiten veröffentlichte Data Reply einen umfangreichen Bericht an das DSTL (der für die Öffentlichkeit zugänglich ist), in dem die Untersuchung und ihre Ergebnisse ausführlich geschildert werden. Dies lieferte dem DSTL wertvolle Erkenntnisse über die Fähigkeiten und die Leistung verschiedener Big-Data-Technologien.