Na tym etapie należy rozważyć kompensację czasu (opóźnienia) oraz kompensację geometryczną pomiędzy sensorami.
Gdy dostępna jest infoimacja o czasowych seriach amplitudy sygnału powrotnego, informacja ta może być wykorzystana do sprawdzenia poprawności sondaży.
Podczas tego etapu, uzyskane współrzędne (tj. pozycje i głębokości) powinny być kontrolowane automatycznie poprzez program wykorzystujący odpowiednie algorytmy statystyczne, które są udokumentowane, przetestowane i zaprezentowane do uzyskania powtarzalnych i dokładnych wyników. Po wybraniu algorytmów pownny być rozważone właściwe techniki estymacji, a ich odpowiedniość potwierdzona. Wiele pakietów opracowywania danych batymetrycznych o wysokiej gęstości zostało zaprojektowanych na podstawie statystycznych narzędzi przetwarzania i zobrazowania.
Ogólnie mówiąc, zbiory danych o wysokiej gęstości z dużą ilością pokrywających się danych pomiędzy profilami zwiększają prawdopodobieństwo wykrycia omyłek. Dla ułatwienia wykrycia omyłek, oprócz statystyki, mogą być wykorzystywane progowe wartości danych pomiarowych. Każda instytucja jest odpowiedzialna za wiarygodność wykorzystywanego algorytmu i przyjętych procedur.
Wszystkie omyłki i wątpliwe dane powinny być oznaczone przez operatora do dalszej kontroli. Rodzaj wykorzystywanego oznaczenia powinien wskazywać, że wykonano je podczas automatycznego opracowania.
Po procesie automatycznego opracowania danych wymagane jest, aby doświadczony i odpowiedzialny hydrograf dokonał przeglądu, zatwierdził rezultaty takiej automatycznej obróbki i rozwiązał wszystkie pozostałe niejasności.
Na tym etapie zaleca się użycie narzędzi wizualizacji trójwymiarowej (3D). Decyzja o akceptacji bądź odrzuceniu widocznie fałszywych sondaży może być często poparta przeglądem połączonych zbiorów danych w trzech wymiarach. Narzędzia te powinny pozwalać na przegląd danych z wykorzystaniem funkcji przybliżania (powiększania).
Proces interaktywny powinien także umożliwiać różne rodzaje wizualizacji, np. planszet głębokości, planszet niedokładności, pojedynczy profil, pojedyncza wiązka, itp., i powinien pozwalać na wizualizację danych pomiarowych w powiązaniu z innymi użytecznymi informacjami, np. przebiegiem linii brzegowej, położeniem wraków, środków oznakowania nawigacyjnego itp. Powinno być możliwe opracowywanie danych we wszystkich rodzajach pracy, także z kontrolą. Podczas opracowywania danych sondażowych, może być często użyteczne zrozumienie przestrzennego kontekstu punktów badanych danych.
Wiele pakietów opracowania statystycznego danych batymetrycznych ma także możliwość generowania powerzchni niedokładności związanej z batymetrią, wykorzystując albo oceny błędu wejściowego albo generowane statystyki przestrzenne komórek siatki. Wyświetlanie i ustalanie tych powerzchni niedokładności jest jedną metodą określania, czy pomiary na całym akwenie pomiarowym spełniają wymagania specyfikacji. Jeśli na niektórych akwenach nie są spełnione specyfikacje, mogą być one przedmiotem dalszych badań lub wykorzystania innych systemów pomiarowych, w celu zredukowania niedokładności do poziomu akceptowalnego.
W trakcie wykonywania pomiarów (w czasie rzeczywistym) procedura próbkowania, może być dostosowywana w czasie prowadzenia pomiarów, dzięki czemu zbierane dane mają akceptowalna jakość dla zamierzonego ich wykorzystania. Każda instytucja (agencja) jest odpowiedzialna za walidację tych możliwości opracowywania danych przed ich użyciem.
Końcowe dane powinny być poddane niezależnej, wewnętrznej procedurze walidacji, z zastosowaniem udokumentowanych procedur kontroli jakości.